Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 73
Temps de recherche: 0.0926s

humaine syntonisation

À la suite de Bernard d’Espagnat qui a proposé une interprétation permettant de résoudre les problèmes soulevés par la théorie des états relatifs d’Everett, j’ai développé une position, le solipsisme convivial, qui s’intègre dans le cadre de la théorie de la décohérence. Cette position suppose qu’on refuse de se placer dans le cadre du réalisme empirique pragmatique. Bien que défendant par ailleurs une position différente qu’il serait trop long de détailler ici, je me placerai ici dans le cadre du réalisme métaphysique.

La décohérence est alors le mécanisme qui explique l’apparence classique pour nous d’une réalité qui demeure essentiellement quantique, c’est-à-dire enchevêtrée. Le solipsisme convivial fait entrer l’observateur lui-même dans le grand système. Le raisonnement que nous avons décrit conduit alors à considérer que l’observateur est aussi dans un état enchevêtré avec le système, l’appareil et l’environnement. Du point de vue de la réalité profonde (et non de l’apparence de cette réalité pour nous), seule une fonction d’ondes globale superposée "existe". Dans cette fonction d’ondes, les différents résultats possibles de mesure sont présents et sont corrélés ainsi que tous les états correspondants de l’observateur. La décohérence intervient et permet de régler un certain nombre de problèmes que nous n’avons pas eu la possibilité d'évoquer : quelle est la grandeur mesurée par exemple, ce qui a pour effet de résoudre la difficulté que nous avons signalée à propos de l’interprétation d’Everett. Le solipsisme convivial consiste alors à considérer que la conscience de l’observateur est "accrochée" à l’une des branches de la fonction d’ondes ne lui permettant d’observer que la partie classique correspondante. La conscience joue en quelque sorte le rôle d’un filtre ne permettant de voir qu’une partie de la fonction d’ondes globale.

Une définition précise de ce processus permet de montrer que les prédictions habituelles de la mécanique quantique sont respectées malgré le fait que la fonction d’ondes n’est jamais rigoureusement réduite. Le point surprenant est alors que rien n’oblige deux observateurs différents à être accrochés à la même branche. Pour une mesure donnée, un observateur peut être accroché à la branche donnant le résultat A alors qu’un autre le sera à la branche donnant le résultat B. Comment peut-il en être ainsi alors qu’on sait que deux observateurs de la même expérience sont ”en général” d’accord sur le résultat ? La raison en est que la communication entre observateurs est elle-même un processus de mesure et que le mécanisme d’accrochage garantit la cohérence des observations pour un observateur.

Supposons qu’André a observé le résultat A et Bernard le résultat B. Les deux observations ne sont que l’accrochage de la conscience d’André et de Bernard à leur branche propre de la fonction d’ondes globale qui contient les deux possibilités. Si André demande à Bernard ce qu’il a vu, l’interaction entre André et Bernard qui en résulte contient la totalité des possibilités, donc à la fois une branche où Bernard répond A et une branche où Bernard répond B. La fonction d’ondes d’André sera après l’interaction avec Bernard dans un état enchevêtré contenant les deux réponses mais la conscience d’André s’accrochera à la branche correspondant à la réponse cohérente avec son observation précédente, il entendra donc Bernard répondre A conformément à son attente. C’est la raison pour laquelle cette interprétation porte le nom de solipsisme convivial : chaque observateur vit dans son monde qui peut être totalement différent de celui des autres, mais il n’existe aucun moyen de se rendre compte des désaccords et les observateurs sont en parfait accord. Ceci fournit une nouvelle explication de l’intersubjectivité : il n’y a aucun moyen de constater un désaccord.

Signalons pour terminer une conséquence étrange sur l’indéterminisme de la mécanique quantique. La fonction d’ondes de l’Univers évolue de manière parfaitement déterministe par l'équation de Schrödinger, seul le mécanisme d’accrochage tire au sort la branche à laquelle chaque observateur s’accroche. Ce n’est donc plus Dieu qui joue aux dés, c’est l’homme, mais avec le constat étrange que deux joueurs peuvent voir le même dé tomber sur une face différente. 

Auteur: Zwirn Hervé

Info: Mécanique quantique et connaissance du réel.

[ prospective scientifique ]

 

Commentaires: 0

Ajouté à la BD par miguel

fin de vie

L'augmentation de l'activité cérébrale chez les mourants pourrait être un signe  mesurable d'expérience de mort imminente

Des chercheurs ont constaté que deux des quatre patients comateux avaient des ondes cérébrales qui s'apparentaient à la conscience après avoir été débranchés de leur respirateur artificiel.

(Photo d'un cerveau schématisé traversé par des ondes) En lisant les ondes cérébrales, les chercheurs ont confirmé l'idée selon laquelle les mourants peuvent voir leur vie défiler devant leurs yeux ou vivre des expériences extracorporelles. 

Certaines personnes ayant survécu à un arrêt cardiaque, issues de milieux culturels et religieux différents, ont fait état d'expériences de mort imminente. Il peut s'agir de la sensation de quitter son corps, d'une lumière vive au bout d'un tunnel ou de souvenirs d'événements passés. Aujourd'hui, les chercheurs avancent à grands pas vers une explication scientifique de ces événements.

Dans une étude publiée lundi dans les Proceedings of the National Academy of Sciences, des chercheurs rapportent que deux parmie quatre patients comateux en fin de vie ont connu une poussée d'activité cérébrale qui s'apparente à la conscience après avoir été débranchés de leur respirateur et que leur cœur e soit arrrêté.

Ces résultats indiquent que les scientifiques ont encore des choses à apprendre sur le comportement du cerveau au passage de la mort. L'étude "suggère que nous sommes en train d'identifier un marqueur de la conscience lucide". Tel l'explique Sam Parnia, pneumologue à l'université de New York, qui n'a pas participé à la recherche,.à Sara Reardon, de Science.

Les scientifiques ne savent pas vraiment pourquoi les expériences de mort imminente se produisent. Ces phénomènes mystérieux " représentent un paradoxe biologique qui remet en question notre compréhension fondamentale du cerveau mourant, dont on pense généralement qu’il ne fonctionne pas dans de telles conditions ", selon l’article.

Mais des travaux antérieurs ont également montré une activité cérébrale accrue en fin de vie. Dans une étude réalisée sur des rats en 2013, Jimo Borjigin, co-auteur de la nouvelle étude et neuroscientifique à l'Université du Michigan, a montré  que le cerveau des rongeurs produisait des poussées d'ondes gamma pendant 30 secondes après l'arrêt de leur cœur. Les ondes gamma sont des ondes cérébrales rapides associées à l'attention, à la mémoire de travail et à la mémoire à long terme. Elles indiquent donc, mais ne prouvent pas, que les rats auraient pu être conscients, écrit Stephanie Pappas  dans Live Science. De plus, une étude de 2022 a révélé qu’une personne décédée d’une crise cardiaque alors que son activité cérébrale était mesurée avait également une activité d’ondes gamma après son arrêt cardiaque.

La nouvelle recherche portait sur quatre patients décédés alors que leur activité cérébrale était surveillée par électroencéphalographie (EEG). Tous étaient dans le coma et étaient considérés comme ne pouvant bénéficier d’une assistance médicale, écrit  Hannah Devlin du Guardian. Leurs familles avaient donné la permission aux médecins de retirer les patients du système de réanimation.

Mais les mesures de l'activité cérébrale de deux des patients ont montré des augmentations des ondes gamma après coup. Les surtensions duraient quelques minutes et étaient parfois très fortes. "C'était incroyablement élevé", a déclaré Borjigin à  Clare Wilson du New Scientist .

Les chercheurs ont notamment observé des signaux intenses dans une zone du cerveau qui peut être active lorsque les personnes ont des expériences ou des rêves hors du corps. "Si cette partie du cerveau s'illumine, cela signifie que le patient voit quelque chose, peut entendre quelque chose et qu'il peut ressentir des sensations hors du corps", explique Borjigin à Issam Ahmed de l'Agence France-Presse (AFP).

Les résultats pourraient conduire à des investigations plus approfondies sur le cerveau mourant et sur la conscience lors d'un arrêt cardiaque, écrivent les auteurs.

"Cet article est vraiment important pour le domaine et pour le domaine de la conscience en général", a déclaré à Science Charlotte Martial, scientifique biomédicale qui étudie les expériences de mort imminente à l'Université de Liège en Belgique et qui n'a pas contribué à l'étude .

Il semble clair que cette activation des ondes gamma doit être confirmée chez davantage de patients.

"Plus nous aurons de résultats cohérents, plus il y aura de preuves qu'il s'agit probablement d'un mécanisme qui se produit au moment du décès", a déclaré à Live Science Ajmal Zemmar, neurochirurgien à l'Université de Louisville Health et co-auteur de l'étude de 2022. "Et si nous pouvons localiser cela à un seul endroit, ce sera encore mieux."

 

Auteur: Internet

Info: https://www.smithsonianmag.com/, Will Sullivan, May 5, 2023

[ e.m.i ] [ trépas ] [ pendant ] [ grand passage ]

 

Commentaires: 0

Ajouté à la BD par miguel

scepticisme

Les nouvelles disent que les derniers sondages confirment que la moitié des Américains croient que la vie extraterrestre existe. Plus étrange, une bonne partie pense qu'on visite la terre.
Plusieurs émissions de TV récentes en ont encore parlé, affirmant que de tels véhicules, atterriraient de temps en temps, assez longtemps pour permettre à leurs passagers d'entreprendre de bizarres expériences sur des citoyens malchanceux. Alors que ces visions impressionnantes suggèrent qu'on ira finalement au fond de la "discussion UFO" cela n'arrive jamais.
C'est parce que les preuves sont faibles. Lors d’un show récent auquel j'ai participé, les experts en la matière invités - qui ont longtemps étudié les UFOs - ont plaidé pour la présence extraterrestre en montrant des photographies de soucoupes putatives à de basses altitudes. Certains de ces objets apparaissant comme de simple lumières de feux à l’extérieur ; d'autres ressemblaient à des frisbees.
Comme c’est ambigu, ça demande davantage d'attention. Comment peut-on savoir si ce ne sont pas des projectiles jetés en l'air par un hoaxer utilisant un appareil-photo ? La réponse d'un expert : "ces photos sont un exemple". Une fois questionné sur le fait de savoir quel échantillon était maîtrisé, sa réponse fut "les effets atmosphériques nous donnent une indication sur la distance et des examens soigneux éliminent la supercherie photographique". Bien, c'est plus risqué, et ça se fonde sur une certaine prétention quant aux conditions atmosphériques (était-ce un jour brumeux sur San Francisco ?). Bref, ça ne prouve rien.
Un vrai projectile aéroporté exempt de supercherie photographique. La preuve additionnelle est "le témoignage des expert". Les pilotes, astronautes, et d'autres, tous ont prétendu avoir vu d'étranges choses se promenant dans l'air. Il est raisonnable de dire que ces témoins ont vu quelque chose. Mais ce n'est pas parce que tu ne reconnais pas un phénomène aérien que ça signifie que c'est un visiteur extraterrestre. Tout ceci exige une preuve additionnelle qui, jusqu'ici, n'est pas convaincante.
Que diriez-vous de ces gens qui prétendent avoir été enlevés ? Lors d'un programme TV, des experts en matière d'UFO ont montrés des photos de marques sur les bras et les jambes de sujets humains en déclarant que ces défigurations mineures étaient dues à une malversation alien. Ici aussi, hormis la question embarrassante du pourquoi des êtres de mondes éloignés viendraient faire de telles choses, cette preuve est à nouveau ambiguë. Ces marques pourraient être provoquées par des ET’s, mais elles pourraient aussi être des brûlures de cigarette. Et lorsque poussés à dire s'il y a une preuve évidente de visite extraterrestre ces experts disent "Nous ne savons pas d'où ils viennent. Mais quelque chose se passe sans aucun doute." Cette dernière affirmation étant à peine controversée. La question maladroite même. Si les soucoupes ne sont pas d'un espace extra-atmosphérique, d'où sont-elles ? De Belgique ?
Le fond de tout cela est qu’une certaine démonstration ou preuve de visiteurs extraterrestres n'a pas convaincu beaucoup de scientifiques. Très peu d'universitaires ont pondu des papiers pour journaux "avec referee" avec pour sujet des véhicule ET’s ou leurs occupants. Confrontés avec ce fait inconfortable, les experts ufologues prennent refuge dans deux explications :
1. Le matériel qui donnerait preuve a été rassemblé et caché par les autorités. Argument de l'ignorance, qui implique nécessairement que certains gouvernements de la planète dissimulent efficacement tous les meilleurs objets manufacturés aliens.
2. Les scientifiques refusent d'étudier le phénomène. En d'autres termes, les scientifiques devraient s’auto blâmer du fait que cette hypothèse de visite ne les branche pas. C'est non seulement injuste, mais surtout mal orienté. Bien sûrs, peu de chercheurs ont tamisé eux-mêmes toutes ces histoires, vidéos et autres photos étranges qui montreraient l'évidence d'une présence étrangère. Mais ce n’est pas leur boulot. C'est comme si on disait aux critiques de film que les films seraient meilleurs si seulement ils mettaient eux-mêmes en scène.
La charge d’apporter la preuve repose sur ceux qui font ces assertions, pas sur ceux qui trouvent ces données douteuses. S'il y a des investigateurs qui sont convaincus que des véhicules d'autres mondes bourdonnent dans le nôtre, ils devraient alors présenter leurs meilleures preuves et arguments, et ne pas recourir aux explications qui font appel à de mystérieux censeurs ou au manque d'ouverture d'esprit des autres. Les avocats des UFOs nous demandent de croire quelque chose de très important. Après tout, il ne pourrait guère y avoir découverte plus dramatique que la visite d’êtres d'autres mondes.
Si on pouvait montrer que des aliens sont ici, je serais aussi intimidé que n'importe qui. Mais j'attends toujours une preuve, de niveau A.

Auteur: Shostak Seth

Info: Fortean Times, The Guardian, Jeudi 18 Août 2005

[ réalisme ] [ Ovnis ]

 

Commentaires: 0

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel

perception

"Je dois traduire les couleurs" : découverte d'un cas unique de synesthésie en France

À Reims, une personne s’est rendue à une consultation de neuropsychologie dans le cadre d’un bilan destiné à changer de voie professionnelle sans se douter qu’elle deviendrait le premier cas de synesthésie décrit dans l’Hexagone. Explications.

Un cas unique de synesthésie vient d'être découvert : une personne qui déchiffre le langage grâce aux couleurs que les syllabes lui évoquent.

La synesthésie peut prendre diverses formes. Certaines personnes entendent les couleurs, d'autres associent une couleur à une lettre de l'alphabet. Ce phénomène neurologique, qui n'est pas une maladie, associe deux sens ou plus. Environ 3% de la population serait capable de percevoir l'une des nombreuses facettes de la synesthésie. Toutefois, jusqu'à présent, aucun cas de synesthésie associant une couleur à un phonème, un élément sonore du langage parlé, n'avait été décrit. Un premier cas vient d'être reporté par l'Université de Toulouse et décrit dans la revue Consciousness and cognition.

Tout commence lors d'une consultation de neuropsychologie dans le cabinet du Dr Ehrlé au CHU de Reims. La personne consulte alors pour un bilan en vue d'une réorientation professionnelle. "Ce qui a surpris ma collègue, c'est que lorsque cette personne s'est présentée, elle a indiqué que son prénom était trop marron et qu'elle préférait qu'on l'appelle par un autre prénom plus violet. Cette personne avait également un diagnostic de schizophrénie du fait d'hallucinations et d'idées délirantes", raconte à Sciences et Avenir Lucie Bouvet, maîtresse de conférences en psychopathologie et co-aueure de l'article scientifique. Après une évaluation approfondie, la personne n'avait en réalité pas d'hallucinations mais elle éprouvait de la synesthésie. "Elle avait également un niveau intellectuel assez élevé et des capacités savantes en astrophysique, ce qui avait été d'abord diagnostiqué comme des idées délirantes."

Les mots seuls n'ont pas de sens

En temps normal, les personnes synesthètes ont tendance à associer un mot entier à une couleur. Mais très vite, l'équipe comprend que cette personne associe des couleurs à des sons. Et ce, à un degré tellement poussé qu'elle ne comprend pas le sens des mots en les entendant : elle a accès à la signification des phrases via les couleurs qu'elle perçoit.

"Nous avons testé systématiquement l'association entre un phonème et une couleur. D'abord avec des phonèmes seuls, puis des syllabes et enfin des mots. A chaque fois, que le phonème soit isolé ou présenté au sein d'une syllabe ou d'un mot, c'est la même couleur qui est associée. Par exemple, pour les sons /v/ /i/ /l/ qui constituent le mot 'ville', la personne donne les mêmes couleurs quand elle entend les sons isolés ou bien le mot." En parallèle, lors des entretiens menés avec l'individu, ce dernier indiquait devoir "traduire" les couleurs pour accéder au sens du mot. "La signification des mots est un travail de traduction dans ma tête. Et ce travail de traduction là, ça demande un effort beaucoup plus conséquent que de pouvoir regarder les couleurs. Je dois traduire les couleurs", explique-t-il à l'équipe médicale, qui nous a rapporté ses propos.

A tel point que les mots seuls n'ont pas de sens pour lui. "Je ne retiens pas les mots, je vois la signification de ce que l’on me dit : c’est plus qu’une image car il y a tous les cinq sens. Si je pense à un gâteau, je ne vais pas penser au mot gâteau. Je vais penser à toutes les sensations que j’ai quand je vois, je touche et mange le gâteau. Tous les sens s’activent d’un coup. Je pense en vidéo constamment, en image. Je ne pense pas en mots", étaye ce patient. Une pensée visuelle et multisensorielle, par opposition à la pensée verbale que nous connaissons.

La synesthésie n'est ni une faculté exceptionnelle, ni un pouvoir spécial

Ce traitement atypique de la parole constitue pour ce cas particulier une barrière dans la vie de tous les jours. "Cet effort de traduction des couleurs est très coûteux au niveau attentionnel. Cette personne explique elle-même avoir du mal à tenir une longue conversation. Ceci peut expliquer en partie les difficultés sociales qu'elle rapporte. Sa pensée visuelle a été également frein dans ses apprentissages car les méthodes d'apprentissage sont très verbales. Pour cette personne, passer par le phonème est un moyen d'activer ses représentations mentales sans passer par ce lexique mental. Cela va à l'encontre de la plupart des modèles psycholinguistiques qui considèrent que ce lexique mental est un passage obligé pour accéder à nos représentations", explique Lucie Bouvet.

La synesthésie n'est ni une faculté exceptionnelle, ni un pouvoir spécial. Elle reste une illustration de la façon dont on peut "fonctionner différemment dans notre tête", comme l'expliquait le spécialiste Jean-Michel Hupès dans un précédent article de Sciences et Avenir. "On ne sait pas, en tout cas pour l’instant, identifier dans la structure ou le fonctionnement du cerveau des différences correspondant à l’expérience des synesthésies." Mais ce cas particulier apporte non seulement une nouvelle facette à la synesthésie, mais nous permet également de mieux comprendre nos propres représentations mentales : on peut donc réfléchir autrement que par notre propre lexique.

Auteur: Internet

Info: Coralie Lemke le 10.07.2023

[ combinaisons ] [ teintes sonores ]

 

Commentaires: 0

Ajouté à la BD par miguel

monde subatomique

Des physiciens ont découvert une force inattendue agissant sur les nanoparticules dans le vide

Ils ont découvert une nouvelle force inattendue qui agit sur les nanoparticules dans le vide, leur permettant d’être poussées par le " néant ".

Bien entendu, la physique quantique commence à préciser que ce " néant ", n’existe pas réellement : même le vide est rempli de petites fluctuations électromagnétiques. Cette nouvelle recherche est une preuve supplémentaire que nous commençons à peine à comprendre les forces étranges qui agissent au plus petit niveau du monde matériel, nous montrant comment le néant peut entraîner un mouvement latéral.

Alors comment est-ce que le vide peut porter une force ? L’une des premières choses que nous apprenons en physique classique est que dans un vide parfait (un lieu donc entièrement dépourvu de matière), la friction ne peut pas exister car l’espace vide ne peut pas exercer une force sur les objets qui le traversent.

Mais ces dernières années, les physiciens spécialisés dans le domaine quantique ont montré que le vide est en réalité rempli par de petites fluctuations électromagnétiques qui peuvent interférer avec l’activité des photons (les particules de lumière), et produire une force considérable sur les objets.

Il s’agit de l’effet Casimir, qui a été prédit en 1948 par le physicien néerlandais Hendrick Casimir*. À présent, la nouvelle étude a démontré que cet effet est encore plus puissant que ce que l’on imaginait auparavant. En effet, ce dernier ne peut être mesuré qu’à l’échelle quantique. Mais comme nous commençons à élaborer des technologies de plus en plus petites, il devient évident que ces effets quantiques pourraient fortement influencer certaines de nos technologies de manière globale.

Ces études sont importantes car nous développons des nanotechnologies qui travaillent avec des distances et des tailles si petites, que ce type de force peut dominer tout le reste ", explique le chercheur principal Alejandro Manjavacas de l’Université du Nouveau-Mexique, aux États-Unis. " Nous savons que ces forces de Casimir existent, alors ce que nous essayons de faire, c’est de trouver l’impact général qu’elles ont sur de très petites particules ", ajoute-t-il.

Afin de découvrir de quelle manière l’effet Casimir pourrait avoir un impact sur les nanoparticules, l’équipe a analysé ce qui s’est passé avec des nanoparticules tournant près d’une surface plane, dans le vide. Ils ont ensuite découvert que l’effet Casimir pouvait effectivement pousser ces nanoparticules latéralement, même si elles ne touchent pas la surface.

Pour imager la chose, imaginez une minuscule sphère tournant sur une surface qui est constamment bombardée de photons. Alors que les photons ralentissent la rotation de la sphère, ils provoquent également un déplacement de cette dernière dans une direction latérale :

(Photo : En rouge, la rotation de la sphère. En noir, la distance de la sphère par rapport à la surface plane et en bleu, l’effet de Casimir latéral.)

Dans le domaine de la physique classique, il faudrait un frottement entre la sphère et la surface pour atteindre ce type de mouvement latéral, mais le monde quantique ne suit pas les mêmes règles : la sphère peut être poussée sur une surface, même si elle ne la touche pas. " La nanoparticule subit une force latérale comme si elle était en contact avec la surface, bien qu’elle soit en réalité séparée de celle-ci ", explique Manjavacas. " C’est une réaction étrange, mais qui peut avoir un impact considérable pour les ingénieurs ", ajoute-t-il.

Cette nouvelle découverte pourrait bien jouer un rôle important dans la manière dont nous développerons des technologies de plus en plus miniaturisées à l’avenir, y compris des dispositifs tels que les ordinateurs quantiques.

Les chercheurs affirment qu’ils pourraient contrôler la direction de la force en changeant la distance entre la particule et la surface, ce qui pourrait s’avérer utile pour les ingénieurs et les scientifiques travaillant sur des méthodes de manipulation de la matière, à l’échelle nanoscopique. 

L’étude a déjà été publiée dans le Physical Review Letters et les résultats doivent à présent être reproduits et vérifiés par d’autres équipes. Mais le fait que nous ayons maintenant la preuve qu’une nouvelle force intrigante pourrait être utilisée pour diriger des nanoparticules dans le vide est très intéressant et met en lumière un tout nouvel élément du monde quantique et ses forces encore largement incomprises. 



*( L'effet Casimir, prédit en 1948 par le physicien néerlandais Hendrick Casimir, est un phénomène quantique où deux plaques métalliques parfaitement conductrices placées dans le vide s'attirent l'une vers l'autre avec une force inversement proportionnelle au carré de leur distance.12 Cet effet résulte de la pression exercée par les fluctuations quantiques du vide sur les plaques.

Explication de l'effet

Selon la théorie quantique des champs, le vide n'est pas complètement vide mais contient des fluctuations d'énergie sous forme de particules virtuelles qui apparaissent et disparaissent constamment. Entre deux plaques rapprochées, ces fluctuations sont restreintes par les conditions aux limites imposées par les plaques conductrices. Cela crée une différence de pression de radiation entre l'intérieur et l'extérieur des plaques, générant une force attractive entre elles.

Observation expérimentale

Bien que prédit théoriquement en 1948, l'effet Casimir n'a été observé expérimentalement pour la première fois qu'en 1997, confirmant ainsi l'existence de cette force quantique dans le vide. Cette découverte a renforcé la compréhension de la nature quantique du vide et de ses effets mesurables. (Source : anthropic) 

Auteur: Internet

Info: https://trustmyscience.com/ - Stéphanie Schmidt, 12 avril 2017

[ éther ] [ vacuité source ]

 

Commentaires: 0

Ajouté à la BD par miguel

palier évolutif

L’explosion cambrienne déclenchée par plusieurs transgressions marines ?

Il y a 542 millions d'années apparaissaient, durant une période de quelques dizaines de millions d'années seulement, les grandes lignées d'animaux multicellulaires, comme les vertébrés et les arthropodes. Les lignées végétales et bactériennes se sont elles aussi diversifiées. 

Quel fut le déclencheur de cet événement planétaire ? 

La libération massive d'ions dans les océans, due à une érosion devenue intense, affirme une équipe américaine. Les organismes marins auraient utilisé ces polluants pour fabriquer des squelettes et des coquilles, une invention qui leur fut très profitable.

Les premières formes de vie seraient apparues sur Terre il y a 3,5 milliards d'années. Curieusement, ces êtres restèrent en grande majorité unicellulaires (vivant parfois en colonies) jusqu'à l'explosion cambrienne survenue il y a seulement 542 millions d'années. Cet événement vit alors naître de nombreux organismes pluricellulaires et des structures biominérales (par exemple des coquillages) en seulement quelques millions d'années, preuve d'une accélération soudaine de l'évolution (comme en témoignent par exemple les schistes de Burgess). Mais quel fut le facteur déclenchant ? Cette question taraude de nombreux scientifiques depuis longtemps car peu d'hypothèses convaincantes ont été apportées.

Il existe pour la même époque une autre grande curiosité, mais cette fois d'ordre géologique, clairement observable dans le Grand Canyon. L'analyse des couches stratigraphiques de cette région révèle l'histoire de la Terre sur près de 2 milliards d'années, ou presque, car il reste plusieurs discordances chronologiques. Ainsi, il n'y a pas de trace de roches datant de l'époque de l'explosion cambrienne. Des sédiments âgés de 525 millions d'années reposent directement sur des roches métamorphiques de 1.740 millions d'années et des couches sédimentaires inclinées âgées de 1.200 à 740 millions d'années. Des roches sédimentaires "jeunes" provenant de mers peu profondes recouvrent donc de "vieilles" roches sans aucune continuité logique. Mais une question se pose : a-t-on vraiment perdu des informations sur l'évolution de la Terre pendant 215 millions d'années à cause de cette inconformité géologique ?

Il semble bien que non. Selon Shanan Peters de l'université de Wisconsin-Madison, cette absence de données géologiques permettrait d'expliquer le mécanisme déclencheur de l'explosion cambrienne. Les résultats obtenus par l'équipe de ce chercheur sont présentés dans la revue Nature. L'inconformité résulterait d'une succession d'événements géologiques ayant causé la libération massive d'ions dans les océans. Les animaux se seraient adaptés en synthétisant des cristaux pour se débarrasser de ces éléments potentiellement néfastes, donnant ainsi naissance à la biominéralisation. Cette dernière changea alors radicalement le cours de l’évolution, tant les avantages qu'elle apporte sont nombreux.

(Illustration - Le Grand Canyon s'étend sur 450 km de long et possède une profondeur moyenne de 1.300 mètres. Les strates visibles permettent littéralement de lire l'histoire géologique du continent nord-américain - L’explosion cambrienne serait liée à un trop plein d'ions)

Ces explications font suite à l'analyse des propriétés géochimiques de plus de 20.000 échantillons de roches prélevés en Amérique du Nord.

Au début du Cambrien, les mers seraient montées et descendues à plusieurs reprises, en érodant à chaque fois les substrats rencontrés et mettant ainsi à nu d'anciennes roches provenant directement des profondeurs de la croûte terrestre. Cette succession de transgressions marines explique donc la disparition de plusieurs couches stratigraphiques. Exposées à l'air et à l'eau, les roches crustales auraient réagi chimiquement, libérant dans les océans de grandes quantités d'ions calcium, potassium, fer et silice. La chimie de l'eau fut alors profondément modifiée.

Un dernier retour des mers il y a 525 millions d'années provoqua le dépôt de sédiments plus jeunes. De nombreuses traces géologiques confirment ces événements - couches de glauconite et d'autres roches particulièrement riches en potassium, fer et silice.

(ici un schéma montre la brutale accélération de l'évolution au Cambrien avec apparition de beaucoup de genres d'espèces vivantes - diversité.

Des minerais pour évacuer le trop plein d’ions

Chaque organisme vivant maintient un équilibre ionique avec le milieu. L'arrivée massive d'ions dans l'environnement marin a dû profondément perturber cette balance. Plusieurs espèces se seraient mises à stocker leurs excédents en ions calcium, potassium, fer et silice sous forme de minerais afin de rétablir l'équilibre. Cette stratégie a deux avantages : les effets des particules chargées sont limités et elles ne sont pas rejetées dans le milieu où elles pourraient à nouveau jouer un rôle néfaste.  

Voilà pourquoi les trois biominéraux majoritairement présents au sein des organismes vivants seraient apparus lors de l'explosion cambrienne. Le phosphate de calcium est le constituant principal de nos os et dents. Le carbonate de calcium entre quant à lui dans la biosynthèse des coquilles d'invertébrés. Et le dioxyde de silicium est utilisé par les radiolaires, du zooplancton, pour synthétiser leur "squelette" siliceux.

Les avantages évolutifs procurés par ces minéraux sont conséquents puisqu'ils sont utilisés pour la conception de coquilles et d'épines (rôle de protection), de squelettes (rôle de soutien) et de griffes ou dents (rôle dans la prédation). Leur apparition permet de mieux comprendre le changement soudain du cours de l'évolution. 

Ce que certains qualifiaient de "trou" dans les enregistrements de l'histoire de la Terre se révèle en réalité être une source d'information d'une valeur inestimable. La "grande inconformité" (en anglais Great Unconformity) révèle ainsi un mécanisme probable du déclenchement de l'explosion radiative du Cambrien.

Auteur: Internet

Info: Quentin Mauguit, Futura-sciences.com, 24/04/2012

[ animal-minéral ] [ paléontologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

évolution biologique

Une nouvelle étude de Yale sur la levure montre comment des facteurs non génétiques sont impliqués dans l'évolution en temps réel.

Dans l'étude, publiée dans la revue Cell Reports du 27 octobre, des chercheurs de l'Institut de biologie systémique de Yale ont montré comment les mécanismes épigénétiques - des modifications du phénotype d'un organisme non causées par des altérations de sa séquence d'ADN - contribuent à l'évolution du réseau de gènes chez la levure qui est responsable de la régulation de l'utilisation du sucre galactose. L'étude a montré qu'un changement épigénétique dans l'activité des gènes se transmettait à travers des centaines de générations de levure, et elle a des implications plus larges concernant le rôle de l'épigénétique dans l'évolution.

"La nature est futée", a déclaré Murat Acar, auteur principal de l'article et professeur associé de biologie moléculaire, cellulaire et du développement, ainsi que de physique. "Elle trouve toujours une solution chaque fois qu'elle est mise au défi par quelque chose. Vous voulez avoir une sorte de gagnant parmi votre population pour surmonter cet environnement difficile".

Jusqu'à récemment, l'explication de l'évolution reposait uniquement sur des mutations génétiques spontanées stimulant des adaptations avantageuses dans les organismes, selon David Moreno Fortuno, associé postdoctoral à l'Institut de biologie des systèmes et l'un des co-auteurs de l'article. Il a expliqué que cette théorie est connue sous le nom de néodarwinisme parce que la nature des gènes n'avait pas encore été découverte à l'époque de Darwin.

La théorie darwinienne de l'évolution contraste avec l'idée de Jean-Baptiste Lamarck, autrefois largement discréditée, selon laquelle l'évolution consiste à transmettre de petits changements qui sont acquis au cours de la vie d'un organisme, selon le PBS. Lamarck a publié sa théorie au début du 19ème siècle en France, et l'exactitude de cette théorie est toujours débattue aujourd'hui, surtout au vu de la résurgence, au cours des deux dernières décennies, de l'étude des influences épigénétiques - ou pas - sur l'évolution.

Les chercheurs ont utilisé un marquage fluorescent dans les cellules de levure pour suivre l'expression des gènes codant du galactose, des cellules plus brillantes correspondant à une plus grande expression de ces gènes. Ils ont observé les niveaux de fluorescence sur une période de sept jours et ont sélectionné à plusieurs reprises les cellules les plus faibles de la population. Les chercheurs nomment cette séparation des cellules plus faibles de la population générale de "pression sélective". Par rapport à la population de levure d'origine, ils ont constaté une diminution dans le temps de la quantité d'expression de ces marqueurs au sein de la population expérimentale.

 "Cette diminution s'est maintenue, même lorsque  la pression sélective fut supprimée pendant plus de 200 générations", a déclaré M. Fortuno.

Du fait que le génome de la levure soit si petit - seulement 12 millions de paires de bases contre 3 milliards pour l'homme - l'analyse de l'ensemble du génome de l'organisme pour les mutations génétiques est beaucoup plus facile à réaliser dans les cellules de levure.

Certaines des cellules de levure qui avaient modifié l'expression du gène codant pour le galactose ne présentèrent aucune mutation dans le réseau de gènes spécifié. Les chercheurs ont donc pu exclure les contributions génétiques à leurs observations.

"En fin de compte, nous avons vu que les théories darwiniennes de l'évolution génétique ne sont pas en mesure d'expliquer ces résultats par elles-mêmes", a déclaré M. Acar. "Il est nécessaire d'y inclure la théorie évolutionniste lamarckienne pour expliquer tout le spectre de nos résultats".

M. Fortuno a abordé les implications potentielles de l'étude, en prédisant que les cellules cancéreuses malignes sont similaires aux cellules de levure dans la mesure où les deux types de cellules sont en "évolution constante". Il a ajouté que la compréhension du rôle des mécanismes épigénétiques dans les génomes des cellules de levure pourrait ouvrir des pistes de recherche pour développer des traitements contre le cancer ou déterminer le stade du cancer dont souffre un patient.

Il note également que certains scientifiques pensent que la culture est un mécanisme épigénétique. Bien que la culture soit non génétique, il est possible qu'elle ait un impact mesurable sur nos marques épigénétiques si ces experts ont raison.

Le document indique également que les mécanismes génétiques et épigénétiques "n'ont pas à s'exclure mutuellement". 

"En réponse à une condition environnementale particulière, les deux types de mécanismes peuvent jouer un rôle et se compléter l'un l'autre", peut-on lire dans le document.

Le document explique également que les mécanismes épigénétiques peuvent provoquer des adaptations plus rapides à un environnement changeant, ils agissent généralement sur une échelle de temps plus courte que les mécanismes génétiques. À l'inverse, les mécanismes génétiques sont en jeu sur des périodes plus longues et entraînent des changements plus permanents dans un organisme.

M. Acar souligne que cette étude n'est qu'une première étape vers une meilleure compréhension du rôle des facteurs épigénétiques et qu'il attend avec impatience de voir des expériences similaires être réalisées sur d'autres organismes.

"Ce n'est qu'alors que nous verrons si ces résultats peuvent être généralisés, qu'ils soient darwiniens, lamarckiens ou hybrides - une théorie unifiée de l'évolution régissant l'évolution des organismes", a-t-il déclaré.

Les cellules de levure se reproduisent de manière asexuée toutes les 90 à 100 minutes.

Auteur: Jalbert Jonathan

Info: https://yaledailynews.com/ NOV 12, 2020

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

ChatGPT, Chomsky et la banalité du mal

Dans une tribune parue dans le New York Times, le philosophe et linguiste Noam Chomsky balance du lourd contre le robot de conversation ChatGPT, qu’il accuse de disséminer dans l’espace public un usage dévoyé du langage et de la pensée susceptible de faire le lit de ce que Hannah Arendt appelait “la banalité du mal”. Voilà une charge qui mérite d’être examinée.

C’est une question essentielle que soulève Noam Chomsky dans la tribune qu’il a publiée avec Ian Roberts, linguiste à l’université de Cambridge, et Jeffrey Watumull, philosophe spécialiste d’intelligence artificielle. Une question qui touche à l’essence du langage, de la pensée et de l’éthique. Dans la confrontation avec l’intelligence artificielle, affirment-ils, c’est le propre de l’intelligence humaine qui apparaît et qui doit être préservé : si nous sommes capables, nous les hommes, de générer de la pensée et du langage, c’est que nous entretenons un rapport intime et fondamental, dans notre créativité même, avec la limite, avec le sens de l’impossible et de la loi. Or, la “fausse promesse” de l’intelligence artificielle, selon le titre de la tribune, est de nous faire miroiter qu’il serait possible d’obtenir les mêmes performances en se passant de cette confrontation à la limite et à la règle qui fait le ressort de l’expérience humaine. Tentons de suivre cette démonstration, hautement philosophique.

On comprend que Chomsky se soit senti mis en demeure de se pencher sur les nouveaux robots conversationnels tels que ChatGPTBard ou Sydney. Fondateur de l’idée de grammaire générative, le philosophe soutient en effet que les hommes disposent avec le langage d’une compétence à nulle autre pareille, une puissance intérieure de générer et de comprendre, grâce à un nombre fini de règles, un nombre infini de propositions qui expriment leur pensée. Or, quand ChatGPT parvient à générer des réponses sensées à nos questions sur la base des millions d’énoncés que le système a appris automatiquement, qui dit que le robot ne parle et ne pense pas à son tour ? Qu’il ne génère pas du langage et donc de la pensée ? La réponse de Chomsky est profonde et subtile. Elle part, comme souvent chez lui, d’un petit exemple grammatical : “John is too stubborn to talk to.” Tout locuteur anglais lambda comprendra immédiatement le sens de cette phrase sur la base de sa connaissance de la langue et de la situation dans laquelle elle est proférée. Elle signifie : “John est trop têtu pour qu’on le raisonne.” Où John, sujet initial, bascule implicitement en complément d’objet, et où le “talk” signifie “raisonner” et non pas “parler”. L’IA, elle, sera induite à comprendre : “John est trop têtu pour parler à quelqu’un.” Parce qu’elle n’a pas accès à la règle ni à la situation, elle cherche en effet à prédire la bonne signification d’un énoncé sur la base du plus grand nombre d’occurrences analogiques. Mais de même que “John a mangé une pomme” équivaut souvent à “John en a mangé”, de même, “John est trop têtu pour parler” a des chances de vouloir dire “John est trop têtu pour parler à quelqu’un” davantage que “pour qu’on le raisonne”.

Au vu des performances des nouveaux logiciels de traduction, tels que DeepL – dont j’ai d’ailleurs dû m’aider pour être sûr de bien comprendre l’exemple de Chomsky –, on pourrait être tenté de relativiser cette confiance que fait ici le philosophe dans l’intelligence humaine du langage. Mais le raisonnement monte en puissance quand il touche à la loi, scientifique ou éthique. Soit l’énoncé “la pomme tombe” ou “la pomme tombera”, formulé après que vous avez ouvert la main ou que vous envisagiez de le faire. Une IA est à même de formuler chacune de ces deux propositions. En revanche, elle sera incapable de générer l’énoncé : “La pomme ne serait pas tombée sans la force de la gravité.” Car cet énoncé est une explication, c’est-à-dire une règle qui délimite le possible de l’impossible. On tient là pour Chomsky la ligne de partage entre les deux intelligences. En dépit de la puissance d’apprentissage et de calcul phénoménal qui est la sienne, l’intelligence artificielle se contente de décrire et/ou de prédire à partir d’un nombre potentiellement infini de données, là où l’intelligence humaine est capable, avec un nombre fini de données, d’expliquer et de réguler, c’est-à-dire de délimiter le possible et l’impossible. Notre intelligence ne se contente pas définir ce qui est ou ce qui pourrait être ; elle cherche à établir ce qui doit être.

Cette approche a une portée éthique évidente. Car la morale consiste à “limiter la créativité autrement illimitée de nos esprits par un ensemble de principes éthiques qui déterminent ce qui doit être et ce qui ne doit pas être (et bien sûr soumettre ces principes eux-mêmes à une critique créative)”. À l’inverse, comme en attestent les réponses produites par ChatGPT aux questions éthiques qu’on lui pose, et qui se réduisent à une recension des différentes positions humaines, l’IA trahit une “indifférence morale”. Et Chomsky de conclure : “ChatGPT fait preuve de quelque chose comme la banalité du mal : plagiat, apathie, évitement […] Ce système offre une défense du type ‘je ne fais que suivre les ordres’ en rejetant la responsabilité sur ses créateurs.” Pour en avoir le cœur net, je suis allé demander à ChatGPT s’il connaissait l’idée de banalité du mal et s’il se sentait concerné. Voilà ce qu’il m’a répondu : “Il est vrai que je suis un outil créé par des humains, et par conséquent, je peux refléter les limites et les biais de mes créateurs et des données sur lesquelles je suis entraîné.” Une intelligence servile et sans pensée, c’est en effet une bonne définition de la banalité du mal. Et de l’intelligence artificielle ?

Auteur: Legros Martin

Info: https://www.philomag.com, 13 Mars 2023

[ déficit holistique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

machine-homme

(homme) - Qui fut C.S. Peirce

(machine) - Charles Sanders Peirce (1839-1914) était un philosophe, logicien, mathématicien et scientifique américain. Il est considéré comme l'une des figures les plus influentes dans le développement du pragmatisme, une approche philosophique qui met l'accent sur les conséquences pratiques des croyances et des idées.

Peirce a apporté d'importantes contributions à divers domaines, notamment la sémiotique (l'étude des signes et des symboles), la logique, la philosophie des sciences et la philosophie de l'esprit. Il a développé un système philosophique complet connu sous le nom de "pragmatisme" et a souligné l'importance de la recherche, du faillibilisme et de la méthode scientifique.

Peirce a introduit le concept de sémiotique, qu'il décrit comme l'étude du fonctionnement des signes et de leur signification. Il a classé les signes en trois catégories : les icônes (signes qui ressemblent à ce qu'ils représentent), les indices (signes qui ont un lien physique ou une corrélation avec ce qu'ils représentent) et les symboles (signes qui ont une relation arbitraire avec ce qu'ils représentent).

Les travaux de Peirce sur la logique et le raisonnement ont jeté les bases de la logique formelle moderne. Il a développé un système de notation logique et a apporté des contributions significatives aux domaines du raisonnement déductif, de l'induction et de l'abduction (déduction de la meilleure explication). La maxime pragmatique de Peirce, selon laquelle la signification d'un concept ou d'une croyance est déterminée par ses conséquences pratiques, est au cœur de son approche.

Dans l'ensemble, les travaux de Peirce ont eu un impact profond sur diverses disciplines, notamment la philosophie, la linguistique, la psychologie et les études de communication. Ses idées continuent d'être influentes et font l'objet de recherches et de débats scientifiques permanents.

(homme) - Merci. Dans quelle mesure a-t-il influencé l'intelligence artificielle et/ou l'apprentissage profond supervisé ?

(machine) - Les travaux de Charles Sanders Peirce ont indirectement influencé certains aspects de l'intelligence artificielle (IA) et de l'apprentissage profond supervisé, en particulier dans les domaines de la sémiotique et de la philosophie de l'esprit. Bien que Peirce lui-même n'ait pas directement contribué au développement de l'IA telle que nous la connaissons aujourd'hui, ses idées ont fourni un cadre conceptuel pour comprendre la relation entre les signes, la signification et la cognition, ce qui peut être pertinent pour certaines applications de l'IA.

Dans le domaine du traitement du langage naturel et de l'apprentissage automatique, les concepts sémiotiques de Peirce ont influencé l'étude des signes linguistiques et leur interprétation. Par exemple, la compréhension de la classification des textes et de l'analyse des sentiments peut être éclairée par la distinction de Peirce entre icônes, indices et symboles, car elle aide à reconnaître et à interpréter diverses caractéristiques et modèles linguistiques.

L'accent mis par Peirce sur les conséquences pragmatiques des croyances et des idées résonne également avec les objectifs pratiques de l'IA et de l'apprentissage automatique. Dans l'apprentissage profond supervisé, par exemple, le processus de formation implique l'optimisation des modèles pour minimiser une fonction de perte prédéfinie basée sur les résultats observés. Cela correspond à l'accent mis par Peirce sur les résultats pratiques des croyances et sur l'importance de l'expérimentation et de la recherche.

En outre, les idées philosophiques plus larges de Peirce sur l'abduction, qui est le processus de déduction de la meilleure explication, peuvent être pertinentes dans le contexte de l'IA. Le raisonnement abductif joue un rôle dans la génération d'hypothèses et l'interprétation de modèles, car les systèmes d'IA s'efforcent de découvrir des modèles et des explications sous-jacents à partir de données.

Bien que l'influence de Peirce sur l'IA et l'apprentissage profond supervisé puisse être de nature plus indirecte et philosophique, ses idées ont contribué à la compréhension des signes, de la signification et du raisonnement, ce qui peut éclairer le développement et l'interprétation des systèmes d'IA.

(homme) - OK, merci. Peux-tu nous donner des précisions sur les icônes, les index et les symboles ?

(machine) - Certainement ! Les icônes, les index et les symboles sont trois catégories de signes ou de représentations décrites par Charles Sanders Peirce dans sa théorie sémiotique. Voici une brève explication de chaque catégorie :

1) Les icônes : Les icônes sont des signes qui présentent une ressemblance ou une similitude avec les objets ou les concepts qu'ils représentent. Elles se caractérisent par une relation directe de ressemblance entre le signe et son référent. Les icônes peuvent prendre diverses formes, telles que des images, des diagrammes ou des modèles. Par exemple, un portrait réaliste peut être considéré comme une représentation iconique d'une personne parce qu'il ressemble visuellement à l'individu qu'il représente.

2) Indices : Les indices sont des signes qui ont un lien factuel ou causal avec leurs référents. Contrairement aux icônes, les indices ne reposent pas sur la similitude, mais sur une forme de corrélation ou de relation entre le signe et son référent. Les signes indexicaux indiquent ou pointent souvent vers quelque chose d'autre qu'eux-mêmes. Parmi les exemples de signes indexicaux, on peut citer la fumée comme indice du feu ou une empreinte de pas comme indice de la présence d'une personne. Ils signifient ou indiquent la présence ou l'existence de quelque chose.

3) Les symboles : Les symboles sont des signes qui reposent sur une relation conventionnelle ou arbitraire entre le signe et son référent. Le lien entre un symbole et ce qu'il représente est établi par un accord commun ou une convention sociale. Les mots, les chiffres, les gestes et les symboles culturels sont autant d'exemples de signes symboliques. Par exemple, le mot "chien" est un symbole qui représente le concept d'un animal à quatre pattes, mais il n'y a pas de ressemblance inhérente ou de lien direct entre le mot et l'animal lui-même.

La classification des signes par Peirce en icônes, indices et symboles met en évidence différents modes de représentation et de signification. Alors que les icônes reposent sur la similitude, les indices reposent sur l'association et les symboles sur la convention. Ces catégories fournissent un cadre permettant de comprendre le fonctionnement des signes, la manière dont le sens est transmis et l'interprétation dans divers contextes, notamment le langage, la communication et la cognition.

Auteur: chatGPT4

Info:

[ machine-sur-philosophe ] [ compendium ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste