Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 103
Temps de recherche: 0.0942s

machine-sur-écrivain

(homme) - Qu'est-ce qui rend l'écrivain J.L.Borges si spécial ?

(machine) - Jorge Luis Borges était un écrivain argentin, largement considéré comme l'une des figures littéraires les plus influentes et les plus novatrices du XXe siècle. Il est connu pour son style littéraire unique, son approche imaginative et sa profondeur philosophique. Plusieurs facteurs ont contribué à rendre Borges si spécial :

- Le style littéraire : Le style de Borges se caractérise par sa brièveté, sa précision et la richesse de son langage. Il a souvent utilisé des structures narratives complexes, incorporant des éléments de fantaisie, de métafiction et de réflexion philosophique. Ses histoires brouillent souvent les frontières entre la réalité et la fiction, remettant en question les conventions traditionnelles de la narration.

- Exploration d'idées : Les œuvres de Borges explorent un large éventail de concepts philosophiques, métaphysiques et existentiels. Il s'intéressait profondément à des sujets tels que le temps, l'infini, l'identité et la nature de la réalité. Borges a utilisé ses histoires pour approfondir des idées philosophiques complexes, remettant souvent en question la nature de la connaissance, de la perception et de la condition humaine.

- Allusions littéraires et intertextualité : Borges était un maître de l'intertextualité, incorporant des références à d'autres œuvres littéraires, à la mythologie et à des événements historiques. Ses récits dialoguent souvent avec des traditions et des textes littéraires, créant ainsi des couches complexes de sens. Les vastes connaissances et l'érudition de Borges lui ont permis de créer de riches tapisseries de connexions intertextuelles.

- Thèmes universels : Les écrits de Borges explorent des thèmes qui trouvent un écho auprès d'un large public. Ses histoires abordent la nature du temps, la nature labyrinthique de la connaissance, les paradoxes de l'identité, le pouvoir du langage et les limites de la compréhension humaine. Ces thèmes universels contribuent à l'attrait durable et à la pertinence de son œuvre.

- Influence et héritage : le style unique et la profondeur philosophique de Borges ont eu un impact significatif sur la littérature et la théorie littéraire. Ses œuvres ont inspiré d'innombrables écrivains et penseurs dans le monde entier, et il est considéré comme un précurseur de divers mouvements littéraires, dont le réalisme magique.

Dans l'ensemble, la particularité de Borges réside dans la combinaison de son style littéraire inventif, de son exploration d'idées profondes, de son approche intertextuelle et de l'influence durable de son œuvre. Ses écrits continuent de captiver les lecteurs et de susciter la réflexion sur des thèmes complexes, ce qui garantit son héritage durable dans le monde littéraire.


Auteur: chatGPT4

Info:

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

linguistique générale

L'influence de C.S. Peirce sur la grammaire cognitive de Ronald Langacker est profonde et multiforme.

1. Parallèles conceptuels : 

- Signes et signification : Peirce a développé une théorie complète des signes, définissant le sens comme la relation triadique entre un signe, son référent et son interprète. Langacker s'inspire de cette approche pour analyser le sens en grammaire cognitive, en considérant les mots et les structures grammaticales comme des signes qui renvoient à des concepts et à des expériences.

- Pragmatisme : Peirce est considéré comme le fondateur du pragmatisme, une philosophie qui met l'accent sur les conséquences pratiques de la pensée et du langage. Langacker intègre cette perspective dans sa grammaire cognitive, en soulignant que le langage est avant tout un outil pour l'action et la communication.

- Catégories : Peirce a élaboré une théorie des catégories, décrivant comment nous classons et conceptualisons le monde. Langacker utilise cette théorie pour analyser la façon dont les catégories sont exprimées linguistiquement, notamment à travers la grammaire et le lexique.

2. Influence de Peirce sur la pensée de Langacker :

L'engagement de Peirce envers l'empirisme, le réalisme et la sémiotique a profondément influencé la vision de Langacker sur le langage. Il a trouvé dans les idées de Peirce une validation philosophique pour sa propre approche cognitive du langage.

- Empirisme : Peirce a souligné l'importance de l'expérience dans la construction de la connaissance. Langacker s'inscrit dans cette lignée en considérant que le langage est façonné par nos interactions avec le monde et nos expériences sensorielles.

- Réalisme : Peirce défendait l'idée que le monde existe indépendamment de nos esprits. Langacker partage cette vision réaliste du langage, en considérant que les mots et les structures grammaticales renvoient à des réalités objectives.

- Sémiotique : Peirce a jeté les bases de la sémiotique, l'étude des signes et de la signification. Langacker applique les principes de la sémiotique à l'analyse linguistique, en considérant le langage comme un système de signes complexes.

3. Conclusion :

L'influence de C.S. Peirce sur la grammaire cognitive de Ronald Langacker est évidente dans les fondements conceptuels de cette théorie et dans l'approche globale du langage adoptée par Langacker. Peirce a fourni à Langacker un cadre philosophique solide pour explorer la relation profonde entre la cognition humaine, la signification et la structure linguistique.

En résumé, C.S. Peirce a joué un rôle crucial dans le développement de la grammaire cognitive de Ronald Langacker, en lui offrant des outils conceptuels et une perspective philosophique pour analyser le langage dans toute sa richesse et sa complexité.

Auteur: Internet

Info: Infos mélange de gemini-bard et perplexity

[ historique ] [ vingtième siècle ]

 

Commentaires: 0

Ajouté à la BD par miguel

épistémologie

- Passons au strong programme lui-même. Pourriez-vous expliquer aux lecteurs non initiés le type de relativisme qui caractérise votre analyse sociologique de la connaissance ? Quelles sont les théories relativistes que vous rejetez ?

- Je dirais que le trait essentiel de tout type de relativisme doit être le rejet de l’absolutisme. Être relativiste, c’est reconnaître que les prétentions de la science à la connaissance n’ont ni ne peuvent prendre le titre de connaissance absolue. Pour être absolue, la connaissance doit être vraie sans aucune restriction, elle doit être connue avec certitude, être une vérité complètement stable et éternelle : c’est le genre de connotations qui donnent son sens au mot "absolu". Et c’est précisément toutes ces connotations que le relativiste rejette.

Donc le relativiste peut dire : toute connaissance est conjecturale, partielle, susceptible d’être révisée ; les théories scientifiques finissent toujours par s’écrouler, elles ont presque toujours – peut-être toujours, mais certainement presque toujours – raison au sujet de certaines choses, et tort au sujet d’autres choses. Elles ont raison jusqu’à un certain degré d’approximation au sujet de certaines choses, et au sujet d’autres choses elles ont raison avec un meilleur degré d’approximation. Tout cela veut dire qu’on ne peut pas accoler le mot "absolu", avec tout son sens, à la prétention à la connaissance. Je dirais donc qu’en conséquence on doit nécessairement accepter ou adopter une certaine forme de relativisme. 

Maintenant, oui, il existe différents types de relativismes, bien que chacun de ces types doive rejeter l’absolutisme pour être une forme de relativisme. Mais bien sûr, il y a des façons idiotes de rejeter l’absolutisme. Par exemple, quelqu’un pourrait dire simplement : "Oh, nous ne connaissons rien, hein ?" ou encore : "Ouais, de toute façon c’est une question d’opinion", puis tenir des propos affligeants comme : "Bien, c’est peut-être vrai pour vous, mais ça ne l’est pas pour moi." Il y a évidemment un grand nombre de façons négligentes et idiotes de nier le caractère absolu de la connaissance, mais le faire n’oblige personne à exprimer des opinions idiotes. On peut nier le caractère absolu de la connaissance sans tomber dans le subjectivisme, sans invoquer sans réfléchir la simple opinion, ou d’autres choses de ce genre. Le lecteur non initié doit comprendre que pour être relativiste, il n’est pas nécessaire de penser "faites ce que vous voulez". C’est une forme de relativisme, mais c’est une forme stupide de relativisme, et ce n’est absolument pas nécessaire pour un relativiste d’être de ce genre-là. Je peux vous assurer que le relativisme associé à la Science Studies Unit n’est pas de ce genre-là. C’est la négation, formulée de manière beaucoup plus prudente, du caractère absolu de toute connaissance. Je rejette le relativisme du "faites ce que vous voulez", tout comme je rejette le relativisme subjectiviste, anti-scientifique, basé sur une conception très individualiste de la connaissance.

Auteur: Bloor David

Info: https://journals.openedition.org/. Entretien avec François Briatte. Traduction de Marc Lenormand

[ distanciation ]

 

Commentaires: 0

Ajouté à la BD par miguel

philosophie politico-scientifique

Prix Nobel de physiologie et de médecine en 1965, professeur au Collège de France et directeur de l'Institut Pasteur, Jacques Monod, qui s'est situé à l'avant-garde de la biologie par les travaux qu'il a menés avec André Lwoff et François Jacob sur le code génétique, déborde avec ce livre le domaine scientifique et tente de dégager de la biologie moderne des implications à la fois épistémologiques, éthiques et politiques.

Jacques Monod  part d'une distinction, à ses yeux fondamentale, entre les êtres vivants et les autres structures existantes. Les vivants sont des objets doués d'un projet, propriété qu'il appelle téléonomie. En outre, contrairement aux objets fabriqués, les êtres vivants sont des machines qui se construisent elles-mêmes et qui se reproduisent elles-mêmes de façon invariante. Le projet téléonomique fondamental d'une espèce est d'assurer à la génération suivante la transmission d'un contenu spécifique d'invariance reproductive. La distinction entre téléonomie et invariance se trouve justifiée par des considérations chimiques.

Mais le principe d'objectivité de la nature, pierre angulaire de la science, qui refuse toute explication finaliste, paraît en contradiction avec la téléonomie. Selon Jacques Monod, cette contradiction se résout si l'on fait de l'invariance la propriété primitive et de la téléonomie une propriété seconde. Cette thèse est conforme à la théorie de l'évolution sélective, qui rend compte du raffinement progressif des structures téléonomiques par des perturbations survenues dans une structure possédant déjà la propriété d'invariance. Ainsi, l'évolution apparemment orientée des espèces s'explique par un mécanisme de sélection d'une série de hasards (les mutations), mécanisme qui obéit à des lois biologiques et physico-chimiques nécessaires.

Au contraire, estime Jacques Monod, les idéologies religieuses et la plupart des systèmes philosophiques nient le hasard et font appel à un principe téléonomique universel, responsable d'une évolution cosmique qui a pour but l'épanouissement humain. Cette interprétation est également présente, selon Jacques Monod, dans le progressisme scientiste du XIXe siècle et dans le matérialisme dialectique de Marx et d'Engels.

Résolument indéterministe en ce qui concerne aussi bien l'avènement de l'homme que celui de la cellule primitive, Jacques Monod estime que l'un comme l'autre disposaient, dans la loterie de l'univers, d'une chance voisine de zéro. Cette idée, à laquelle conduit la connaissance objective, est très difficilement acceptable, parce que les hommes ont toujours eu besoin, pour dissiper leur angoisse, de croire qu'ils occupent dans les plans de la nature une place nécessaire.

Jacques Monod, dans les dernières pages, les plus célèbres de son livre, appelle l'homme contemporain à abandonner les valeurs millénaires pour adopter une éthique de la connaissance. Cette éthique définit une valeur transcendante, la connaissance vraie, et propose à l'homme de la servir. Monod y voit la seule attitude rationnelle sur laquelle s'édifierait un véritable socialisme. Emergé par hasard dans l'immensité de l'univers, l'homme peut choisir de se libérer des servitudes mensongères de l'animisme.

Auteur: Favrod Charles-Henri

Info: https://www.letemps.ch/, 27 octobre 2000 - Les grands livres du XXe siècle. "Le hasard et la nécessité" de Jacques Monod

[ univers laïc ] [ post-darwinisme ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

songe

Des scientifiques ont découvert que les "rêveurs lucides" - les personnes qui ont conscience d'être en train de rêver - sont capables d'apprendre des choses et d'acquérir de nouvelles compétences en contrôlant leurs rêves.
Vous rêvez que vous êtes poursuivi par un monomaniaque qui veut vous tuer à coup de baguette de pain parce que vous portez le pull-over rouge tricoté par mémé? Vous n'avez qu'une seule option : attendre de vous réveiller. Une des principales différences entre le rêve et la réalité est le manquer de contrôle : on ne peut décider de faire un rêve, et lorsqu'on rêve, on est passif face aux événements. Une théorie, largement répandue, mais qui pourrait bien être mise à mal par les récents travaux d'un groupe de chercheurs de l'université de Yale.
Ce groupe de scientifiques a découvert que les "rêveurs lucides" - les personnes qui ont conscience d'être en train de rêver - sont capables d'acquérir de mémoriser des données et d'apprendre des choses à travers leurs rêves.
On savait jusqu'à présent que ce type de rêveurs parvenait à exercer un contrôle délibéré, non seulement sur le contenu, mais aussi sur le déroulement de leurs rêves. Tout en dormant, ils gardent leur libre arbitre. Dans un ouvrage intitulé Exploring the world of lucid dreaming, publié en 1997, Stephen LaBerge et Howard Rheingold détaillaient déjà une méthode pour parvenir à "se réveiller dans son rêve", et à en contrôler certains aspects. De nombreux "rêveurs lucides" ont racontent pouvoir voler à volonté. D'autres décrivent une sensation d'euphorie et de bien-être. Une femme a affirmé que son premier rêve lucide lui avait procuré "la sensation délicieuse de se fondre dans les couleurs et la lumière, avec un final digne du meilleur orgasme". Rien de moins.
Le grand défi des chercheurs est désormais de parvenir à "entraîner" ces personnes en leur disant de quoi rêver. Être le maître de ses rêves, permettrait de les manipuler dans le but d'apprendre et d'acquérir de nouvelles connaissances - bien qu'il soit impossible d'apprendre à jouer au violon de cette façon.
Les chercheurs ont aussi découvert que les "rêveurs lucides" ont un autre avantage sur les rêveurs "normaux" : ils sont en effet meilleurs pour tous les jeux d'argent et de hasard. Ces activités font en effet appel à des zones du cerveau - très bien maîtrisées par les "rêveurs lucides" - qui contrôlent les prises de décisions qui reposent sur l'émotion et les interactions sociales.
Les sceptiques avancent que la seule manière de connaître le contenu d'un rêve est à travers ce que le rêveur rapporte à son réveil, et qu'il est donc très difficile de savoir si quelqu'un maîtrise vraiment son rêve. Lorsque nous sommes éveillés, des techniques d'imagerie permettent dans une certaine mesure de savoir à quoi on pense. En théorie, il est possible de faire la même chose pendant le sommeil, car c'est un état où les pensées ont un contenu déterminé. Problème : les rêves font appel à l'inconscient, il est donc plus compliqué de décoder les pensées qui y sont liées, et de les contrôler.

Auteur: Internet

Info:

[ onirisme ]

 

Commentaires: 0

spirituel-psychologique

Les archétypes (ou images idéales), au sens où l’entend Platon — et reconnaissons qu’il savait ce qu’il voulait dire par là —, n’appartiennent nullement au domaine psychique ; ils sont au contraire les déterminations primordiales du pur Esprit ; pourtant ils se reflètent d’une certaine manière sur le plan physique, d’abord comme facultés créatrices de formes et ensuite, à un niveau inférieur, dans la représentation sensorielle, comme symboles proprement dits, de sorte que l’on peut, à la rigueur, admettre d’appliquer l’expression “archétype” au domaine psychologique également.

Mais Jung n’entend pas l’“archétype” dans ce sens, puisqu’il le qualifie lui-même de “complexe inné”, en décrivant ses effets sur la psyché de la manière suivante : “La possession par un archétype fait de l’homme un personnage purement collectif, une espèce de masque sous lequel la nature humaine ne peut plus se développer, mais dégénère progressivement”. Comme si un archétype, c’est- à-dire un contenu supra-formel — et donc non limité — du pur Esprit pouvait adhérer à l’âme comme une sangsue ! De quoi s’agit-il en réalité dans le cas de “possession” psychique cité par Jung et qu’il qualifie lui-même de pathologique ? Il s’agit du résultat d’une désagrégation psychique au cours de laquelle une des possibilités contenue dans la forme psychique de l’homme se met à proliférer aux dépens de l’ensemble. Le fait que la forme essentielle de l’âme possède différents aspects nettement différenciés, qui forment néanmoins, normalement, un tout cohérent dont les éléments se complètent mutuellement, n’a strictement rien à voir avec on ne sait quels substrats psychiques irrationnels, ce qui ne saurait échapper qu’à un type de pensée fondé sur une vision du monde limitée et fausse.

Tout homme qui n’est pas infirme sur le plan psychique porte en lui les virtualités psychiques de l’homme et de la femme, du père et de la mère, de l’enfant et du vieillard ; il en possède en principe toutes les propriétés et toutes les “dignités”, liées à son statut d’être humain à proprement parler. Il est en même temps maître et esclave, prêtre, roi, guerrier et artiste, quand bien même aucune de ces prédispositions n’est plus marquée qu’une autre. La féminité fait partie de la vraie virilité, de même que la virilité fait partie de la féminité, et le même principe s’applique à toutes les autres propriétés qui se complètent par leurs contraires.

En tant que vertu — au sens de virtus, force psychique —, une propriété donnée ne peut se manifester qu’en incluant les autres en elle-même. Le phénomène inverse consiste en l’exagération désespérée d’une possibilité psychique aux dépens des autres, qui entraîne une désagrégation et un raidissement intérieur, suscitant cette caricature morale que Jung compare à un masque. [...]

Les véritables archétypes, qui, eux, ne se situent pas sur le plan psychique, ne s’excluent pas les uns les autres ; l’un est toujours compris dans un autre, et l’on peut dire pratiquement la même chose des propriétés psychiques qui les reflètent. Car les archétypes, au sens du mot tel qu’il est compris depuis Platon, sont les sources de l’Être et de la Connaissance, et non, comme le voudrait Jung, des dispositions inconscientes de “l’agir et de l’imaginer”. Le fait que les archétypes ne puissent être saisis par la pensée logique n’a rien à voir avec le caractère obscur et irrationnel de ce prétendu “inconscient collectif’, dont les contenus ne seraient accessibles que d’une manière indirecte, par leurs “éruptions” de surface. Car l’intuition spirituelle, qui n’est pas liée à la pensée logique, peut très bien atteindre les archétypes en partant de leurs symboles.

La théorie d’un héritage psychique qui se mettrait à végéter en prenant la forme d’un “inconscient collectif’ sous la couche supérieure rationnelle de la conscience humaine s’impose d’autant plus facilement qu’elle semble correspondre à l’explication évolutionniste de l’instinct animal ...

Auteur: Burckhardt Titus

Info: Dans "Science moderne et sagesse traditionnelle"

[ critique ] [ atavo-figures ] [ définition ] [ intrication ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

conjecture scientifique

L’Univers pourrait être dominé par des tachyons, des particules se déplaçant plus vite que la lumière

 (Photo : Une délicate sphère de gaz créée par une onde de souffle de supernova à 160 000 années-lumière de la Terre.)

Dans un article préliminaire récent, deux physiciens avancent une proposition qui pourrait révolutionner notre compréhension de l’Univers. Leur théorie audacieuse suggère que notre cosmos pourrait être gouverné par des particules hypothétiques appelées tachyons qui se déplacent toujours plus vite que la lumière.

L’hypothèse des tachyons

Dans le monde fascinant de la physique théorique où les frontières de la connaissance sont sans cesse repoussées, la quête pour comprendre les mystères de l’Univers est incessante. Récemment, deux physiciens ont par exemple fait une proposition audacieuse qui pourrait potentiellement transformer notre vision fondamentale de l’Univers : l’hypothèse des tachyons. Selon la théorie, il s’agirait de particules hypothétiques qui se déplacent toujours plus vite que la lumière.

Bien que leur existence soit largement contestée et contredite par les principes de la relativité restreinte, qui dit qu’aucune particule dotée de masse ne peut voyager à une vitesse supérieure à celle de la lumière dans le vide, les tachyons continuent de susciter l’intérêt des chercheurs en raison de leur potentiel à repousser les frontières de notre compréhension.

Comment leur présence pourrait-elle changer le monde ?

Les chercheurs avancent plus précisément l’hypothèse audacieuse que les tachyons pourraient jouer un rôle fondamental dans notre compréhension de la composition de l’Univers. Dans ce modèle, ces particules pourraient en effet être la clé pour expliquer deux phénomènes mystérieux : la matière noire et l’énergie noire. La première est une substance invisible qui compose la majorité de la masse de l’Univers observable, mais dont la nature exacte reste largement inconnue. L’énergie noire est quant à elle responsable de l’expansion accélérée de l’univers. Plus précisément, les chercheurs suggèrent que les tachyons pourraient être la véritable identité de la matière noire.

Concernant l’énergie noire, rappelons que les astronomes peuvent mesurer la luminosité intrinsèque des supernovae de type Ia, ce qui leur permet de déterminer leur distance par rapport à la Terre. En comparant cette luminosité apparente à la luminosité intrinsèque attendue d’une supernova de type Ia standard, ils peuvent calculer la distance de la supernova et ainsi estimer la distance de l’objet hôte (généralement une galaxie).

En combinant les mesures de distance de nombreuses supernovae de ce type à différentes distances, les astronomes peuvent alors tracer la relation entre la distance et le taux d’expansion de l’Univers. Dans le cadre de cette étude sur les tachyons, les chercheurs ont appliqué leur modèle cosmologique alternatif aux données observées sur ces supernovae. Il s’est alors avéré que ce dernier était tout aussi cohérent avec ces observations.

En intégrant les tachyons dans leur modèle, les physiciens suggèrent que ces particules pourraient ainsi fournir une explication unifiée à ces deux phénomènes cosmologiques complexes.

Quelles sont les limites de cette théorie ?

Malgré son potentiel révolutionnaire, la théorie des tachyons est confrontée à de nombreuses limites. Tout d’abord, leur existence même est hautement improbable selon les connaissances actuelles de la physique. En effet, la notion de voyager plus vite que la lumière soulève des questions fondamentales sur la causalité et les principes de la relativité. De plus, bien que ce modèle cosmologique puisse expliquer certaines observations, il nécessite encore des tests expérimentaux rigoureux pour être validé.

En conclusion, l’étude des tachyons représente une exploration audacieuse des limites de notre compréhension de l’Univers. Cependant, bien que cette théorie ouvre de nouvelles perspectives fascinantes, elle devra être soumise à un examen minutieux et à des tests rigoureux pour être pleinement acceptée par la communauté scientifique.

Les recherches de l’équipe ont été publiées dans la base de données pré-imprimée arXiv en mars.



 

Auteur: Internet

Info: https://sciencepost.fr/ - Brice Louvet, expert espace et sciences18 avril 2024

[ spéculations ] [ monde subatomique ] [ vitesse supraluminique ] [ effet Tcherenkov ] [ superluminique ]

 

Commentaires: 0

Ajouté à la BD par miguel

humaine syntonisation

À la suite de Bernard d’Espagnat qui a proposé une interprétation permettant de résoudre les problèmes soulevés par la théorie des états relatifs d’Everett, j’ai développé une position, le solipsisme convivial, qui s’intègre dans le cadre de la théorie de la décohérence. Cette position suppose qu’on refuse de se placer dans le cadre du réalisme empirique pragmatique. Bien que défendant par ailleurs une position différente qu’il serait trop long de détailler ici, je me placerai ici dans le cadre du réalisme métaphysique.

La décohérence est alors le mécanisme qui explique l’apparence classique pour nous d’une réalité qui demeure essentiellement quantique, c’est-à-dire enchevêtrée. Le solipsisme convivial fait entrer l’observateur lui-même dans le grand système. Le raisonnement que nous avons décrit conduit alors à considérer que l’observateur est aussi dans un état enchevêtré avec le système, l’appareil et l’environnement. Du point de vue de la réalité profonde (et non de l’apparence de cette réalité pour nous), seule une fonction d’ondes globale superposée "existe". Dans cette fonction d’ondes, les différents résultats possibles de mesure sont présents et sont corrélés ainsi que tous les états correspondants de l’observateur. La décohérence intervient et permet de régler un certain nombre de problèmes que nous n’avons pas eu la possibilité d'évoquer : quelle est la grandeur mesurée par exemple, ce qui a pour effet de résoudre la difficulté que nous avons signalée à propos de l’interprétation d’Everett. Le solipsisme convivial consiste alors à considérer que la conscience de l’observateur est "accrochée" à l’une des branches de la fonction d’ondes ne lui permettant d’observer que la partie classique correspondante. La conscience joue en quelque sorte le rôle d’un filtre ne permettant de voir qu’une partie de la fonction d’ondes globale.

Une définition précise de ce processus permet de montrer que les prédictions habituelles de la mécanique quantique sont respectées malgré le fait que la fonction d’ondes n’est jamais rigoureusement réduite. Le point surprenant est alors que rien n’oblige deux observateurs différents à être accrochés à la même branche. Pour une mesure donnée, un observateur peut être accroché à la branche donnant le résultat A alors qu’un autre le sera à la branche donnant le résultat B. Comment peut-il en être ainsi alors qu’on sait que deux observateurs de la même expérience sont ”en général” d’accord sur le résultat ? La raison en est que la communication entre observateurs est elle-même un processus de mesure et que le mécanisme d’accrochage garantit la cohérence des observations pour un observateur.

Supposons qu’André a observé le résultat A et Bernard le résultat B. Les deux observations ne sont que l’accrochage de la conscience d’André et de Bernard à leur branche propre de la fonction d’ondes globale qui contient les deux possibilités. Si André demande à Bernard ce qu’il a vu, l’interaction entre André et Bernard qui en résulte contient la totalité des possibilités, donc à la fois une branche où Bernard répond A et une branche où Bernard répond B. La fonction d’ondes d’André sera après l’interaction avec Bernard dans un état enchevêtré contenant les deux réponses mais la conscience d’André s’accrochera à la branche correspondant à la réponse cohérente avec son observation précédente, il entendra donc Bernard répondre A conformément à son attente. C’est la raison pour laquelle cette interprétation porte le nom de solipsisme convivial : chaque observateur vit dans son monde qui peut être totalement différent de celui des autres, mais il n’existe aucun moyen de se rendre compte des désaccords et les observateurs sont en parfait accord. Ceci fournit une nouvelle explication de l’intersubjectivité : il n’y a aucun moyen de constater un désaccord.

Signalons pour terminer une conséquence étrange sur l’indéterminisme de la mécanique quantique. La fonction d’ondes de l’Univers évolue de manière parfaitement déterministe par l'équation de Schrödinger, seul le mécanisme d’accrochage tire au sort la branche à laquelle chaque observateur s’accroche. Ce n’est donc plus Dieu qui joue aux dés, c’est l’homme, mais avec le constat étrange que deux joueurs peuvent voir le même dé tomber sur une face différente. 

Auteur: Zwirn Hervé

Info: Mécanique quantique et connaissance du réel.

[ prospective scientifique ]

 

Commentaires: 0

Ajouté à la BD par miguel

sciences physiques

Le CERN relance la recherche des " particules fantômes " de l'Univers

Les scientifiques européens du CERN vont lancer la construction d'un nouvel accélérateur de particules, dans l'espoir d'identifier enfin les "particules cachées" de l'Univers.

Les scientifiques du plus grand accélérateur de particules du monde vont disposer d'un nouvel outil qui, selon les chercheurs, pourrait les aider à découvrir la face cachée de l'Univers.

L'Organisation européenne pour la recherche nucléaire (CERN) va entamer la construction d'un nouveau supercollisionneur, le "Futur collisionneur circulaire", qui sera 1 000 fois plus sensible aux particules dites "cachées", ou "fantômes", que l'équipement actuel utilisé par l'organisation.

Les accélérateurs de particules permettent aux scientifiques de recréer les conditions du Big Bang, la théorie physique qui décrit l'apparition de l'Univers.

Dans ce nouvel appareil, les particules seront projetées contre une surface solide, et non plus les unes contre les autres comme dans les accélérateurs actuels

Le collisionneur fait partie du projet SHiP (Search for Hidden Particles) du CERN, un projet en gestation depuis dix ans qui permettra d'étudier certaines des particules les plus discrètes de l'espace.

Richard Jacobsson, physicien principal au CERN, affirme que ce projet pourrait constituer une "avancée considérable" qui redéfinirait la compréhension de la création de l'Univers.

" SHiP est l'une de ces expériences qui pourraient changer le paradigme scientifique et nous faire entrer dans un tout nouveau domaine de connaissances, non seulement sur notre Univers, mais aussi sur notre position dans celui-ci", avance Richard Jacobsson lors d'une interview.

"La plupart des hypothèses que nous avons formulées jusqu'à présent pourraient être réévaluées".

Selon le physicien, les scientifiques n'ont jamais réussi à détecter ce type de particules, car ils ne disposaient pas de la technologie adéquate.

Que sont les particules fantômes ?

D'après Richard Jacobsson, tout ce que nous pouvons voir à l'œil nu depuis l'espace, y compris les étoiles et les planètes, représente environ 5 % de la matière réelle de l'Univers.

Les 95 % restants se répartissent, selon les connaissances actuelles, entre environ 26 % de matière noire et 69 % d'énergie noire, selon le physicien.

Les scientifiques utilisent actuellement le "modèle standard", qui comprend 17 particules différentes, pour expliquer la composition de l'Univers.

En 2012, les scientifiques du CERN ont découvert une nouvelle particule du modèle standard, le boson de Higgs, grâce au Grand collisionneur de hadrons, une découverte qui leur a valu le prix Nobel de physique un an plus tard.

Depuis, les tentatives d'utiliser ce même collisionneur pour mesurer les particules cachées - qui pourraient également constituer la matière noire et l'énergie noire, mais ne font pas partie du modèle standard - se sont toutes soldées par des échecs.

" La découverte du boson de Higgs a comblé un vide sans pour autant prédire quelque chose de nouveau", déclare Richard Jacobsson.

"L'idée de ce projet est née presque par hasard, d'un partenariat entre des personnes issues de différents domaines et désireuses d'explorer la physique sous un autre angle".

Les particules "cachées" ou "fantômes" sont invisibles et ont des connexions physiques plus faibles que les particules déjà découvertes, ce qui les rend difficiles à détecter.

Le Grand collisionneur de hadrons du CERN peut détecter les particules jusqu'à un mètre du site de la collision, mais les particules cachées restent invisibles beaucoup plus longtemps avant de se révéler.

Les détecteurs du nouveau collisionneur du projet SHiP seront donc placés plus loin et produiront davantage de collisions sur une toile de fond fixe afin d'identifier plus facilement ces particules.

La construction des nouvelles installations souterraines du SHiP débutera en 2026 et les premières expériences pourraient avoir lieu vers 2032.

Le futur collisionneur circulaire, quant à lui, sera mis en service dans le courant des années 2040, mais n'atteindra son plein potentiel qu'en 2070, selon des informations rapport de la BBC.

Auteur: Internet

Info: https://fr.euronews.com/ - Anna Desmarais,  26 mars 2024

[ infra-monde ] [ sub-particules élémentaires ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

théologie

Penser, réfléchir... Le raisonnement d'origine et sa maîtrise, très simples, ont suffi à l'expansion des humains en tant que race grégaire "à mémoire externe". Un très léger recul de la raison, multiplié par la solidarité des hommes, a été suffisant pour assurer sa domination sur les autres espèces évoluées.

Tout comme la sémiotique de Peirce, ou la théorie de la communication, cette réflexion simple, à faible continuité, s'articule sur l'inamovible triade "réalité" "interaction" "réaction". Ainsi, de ce qu'on pourrait aussi nommer "signifiant", "interprétant", signifié" est issue la logique formelle. Elle s'est développée subséquemment sur trois axes de savoirs accumulés, le langage, les maths et l'histoire.

Résultants de ces 3 outils, mais rarement en concordance sur les trois plans, sont apparus des modèles, référents, exemples, etc. Desquels on a pu montrer des différences, analogie, oppositions, alliances, etc... Le principe du tiers exclus et sa maîtrise était bien suffisant, puissant et efficace pour assurer la suprématie humaine.

On dirait bien que le vingtième siècle, (époque de l'apparition de mon infime moi), a fait prendre conscience de trois éléments supplémentaires, dérivés, mais toujours logiques, pour effectuer de meilleurs calculs/réflexions. Ils sont de récente apparition mais seront visiblement toujours plus utilisés de par le développement de la technologie et parce que, une fois encore, nos connaissance sont grégaires. Je veux parler de l'itération, de la singularité et des statistiques.

Le premier montre qu'il y a un tâtonnement incessant, qu'on pourrait nommer "exploration des possibilités de solutions", comme le scan répété d'une situation depuis un point de vue unique et relativement stable. Le deuxième fut de réaliser que chaque "émergence du vivant" possède une singularité, quasi absolue, mais néanmoins combinable avec une infinité d'autres singularités, un peu comme une pièce de puzzle adaptable (pensons à la reproduction pour faire simple). Et le troisième, c'est qu'il y a (qu'il faut ?) en même temps une variété extraordinaire et innombrable de toute les singularités d'une branche (espèce, taxon), ce qui semble nécessaire pour conserver les meilleures chances de survie dans des milieux qui ne sont jamais stables par définition. En ce sens on pourrait penser que plus une espèce dure plus elle est miroirs de son adaptation à un milieu.

Mais c'est beaucoup plus compliqué que cela. Ce 3e point souligne donc la nécessité d'une "variété de l'innombrable", autrement la vie présente sans cesse la plus grande ouverture possible en multipliant les singularités et les variétés d'espèces (ou végétaux ou autres, eux-même interdépendants et donc indissociables de Gaïa) qui réussissent. C'est ici, en fonction de l'évolution des mathématiques, et l'étude affinée des grands nombres d'individus (on pourra penser ici aux statistiques médicales humaines) que nous basculons nécessairement dans ce qui devient la sciences post-dénombrement : les probabilités.

Et là, l'arrivée de l'indéterminisme d'Heisenberg aidant, les spécialistes de la mécanique quantique seront bien contents de pouvoir utiliser ces outils statistiques probabilistes pour s'attaquer à mieux comprendre la réalité qui s'offre à eux. En ce sens, partant de ce nouveau concept, cette qualité mélangée onde-corpuscule incompréhensible à nos sens (parce qu'orthogonale ?), et au regard des derniers constats de l'épigénétique, on peut en venir à imaginer une "source" avec des potentialités de calculs très au-delà des plus incroyables computers quantiques imaginables.

En effet, cette "origine", ou "principe-démiurge", "Dieu", "Extraterrestres" ou autre... serait capable, en fonctionnant par - et avec - les résonances d'un "réel projeté par Elle-même", de s'adapter en continu avec les impondérables au-delà de sa préhension. Avec diverses vitesses de réaction/adaptation en fonction du niveau de taille/développement de la vie.

Nous sommes bien sûr au niveau local avec cet exemple (Gaïa). Ce qui, et c'est bien amusant, conforte l'idée de "divinités régionales", planétaires par exemple, qui pourraient dès lors laisser supposer, ou imaginer, tout un système d'"entités de ce genre", avec des interactions, tensions entre elles... hiérarchies, etc.. Elargissant et complexifiant les horizons, ce qui pourra éventuellement rejoindre des notions de niveaux vibratoires et autres univers parallèles.

Bref, de quoi concocter de bien belles épopées fantastiques et autres space opera métaphysiques..

Auteur: Mg

Info: 21 février 2020

[ biophysique ] [ projectionniste ] [ yotta-physique ] [ prospectives ]

 
Commentaires: 3
Ajouté à la BD par miguel