Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 248
Temps de recherche: 0.0608s

conjecture scientifique

L’Univers pourrait être dominé par des tachyons, des particules se déplaçant plus vite que la lumière

 (Photo : Une délicate sphère de gaz créée par une onde de souffle de supernova à 160 000 années-lumière de la Terre.)

Dans un article préliminaire récent, deux physiciens avancent une proposition qui pourrait révolutionner notre compréhension de l’Univers. Leur théorie audacieuse suggère que notre cosmos pourrait être gouverné par des particules hypothétiques appelées tachyons qui se déplacent toujours plus vite que la lumière.

L’hypothèse des tachyons

Dans le monde fascinant de la physique théorique où les frontières de la connaissance sont sans cesse repoussées, la quête pour comprendre les mystères de l’Univers est incessante. Récemment, deux physiciens ont par exemple fait une proposition audacieuse qui pourrait potentiellement transformer notre vision fondamentale de l’Univers : l’hypothèse des tachyons. Selon la théorie, il s’agirait de particules hypothétiques qui se déplacent toujours plus vite que la lumière.

Bien que leur existence soit largement contestée et contredite par les principes de la relativité restreinte, qui dit qu’aucune particule dotée de masse ne peut voyager à une vitesse supérieure à celle de la lumière dans le vide, les tachyons continuent de susciter l’intérêt des chercheurs en raison de leur potentiel à repousser les frontières de notre compréhension.

Comment leur présence pourrait-elle changer le monde ?

Les chercheurs avancent plus précisément l’hypothèse audacieuse que les tachyons pourraient jouer un rôle fondamental dans notre compréhension de la composition de l’Univers. Dans ce modèle, ces particules pourraient en effet être la clé pour expliquer deux phénomènes mystérieux : la matière noire et l’énergie noire. La première est une substance invisible qui compose la majorité de la masse de l’Univers observable, mais dont la nature exacte reste largement inconnue. L’énergie noire est quant à elle responsable de l’expansion accélérée de l’univers. Plus précisément, les chercheurs suggèrent que les tachyons pourraient être la véritable identité de la matière noire.

Concernant l’énergie noire, rappelons que les astronomes peuvent mesurer la luminosité intrinsèque des supernovae de type Ia, ce qui leur permet de déterminer leur distance par rapport à la Terre. En comparant cette luminosité apparente à la luminosité intrinsèque attendue d’une supernova de type Ia standard, ils peuvent calculer la distance de la supernova et ainsi estimer la distance de l’objet hôte (généralement une galaxie).

En combinant les mesures de distance de nombreuses supernovae de ce type à différentes distances, les astronomes peuvent alors tracer la relation entre la distance et le taux d’expansion de l’Univers. Dans le cadre de cette étude sur les tachyons, les chercheurs ont appliqué leur modèle cosmologique alternatif aux données observées sur ces supernovae. Il s’est alors avéré que ce dernier était tout aussi cohérent avec ces observations.

En intégrant les tachyons dans leur modèle, les physiciens suggèrent que ces particules pourraient ainsi fournir une explication unifiée à ces deux phénomènes cosmologiques complexes.

Quelles sont les limites de cette théorie ?

Malgré son potentiel révolutionnaire, la théorie des tachyons est confrontée à de nombreuses limites. Tout d’abord, leur existence même est hautement improbable selon les connaissances actuelles de la physique. En effet, la notion de voyager plus vite que la lumière soulève des questions fondamentales sur la causalité et les principes de la relativité. De plus, bien que ce modèle cosmologique puisse expliquer certaines observations, il nécessite encore des tests expérimentaux rigoureux pour être validé.

En conclusion, l’étude des tachyons représente une exploration audacieuse des limites de notre compréhension de l’Univers. Cependant, bien que cette théorie ouvre de nouvelles perspectives fascinantes, elle devra être soumise à un examen minutieux et à des tests rigoureux pour être pleinement acceptée par la communauté scientifique.

Les recherches de l’équipe ont été publiées dans la base de données pré-imprimée arXiv en mars.



 

Auteur: Internet

Info: https://sciencepost.fr/ - Brice Louvet, expert espace et sciences18 avril 2024

[ spéculations ] [ monde subatomique ] [ vitesse supraluminique ] [ effet Tcherenkov ] [ superluminique ]

 

Commentaires: 0

Ajouté à la BD par miguel

sciences

Mu: une constante fondamentale qui reste constante.
L'idée que les constantes fondamentales ne le soient pas réellement et dépendent de l'espace et du temps perturbe depuis longtemps l'esprit des physiciens. Mais, en observant la façon dont une galaxie lointaine absorbe la lumière d'un quasar, des chercheurs australiens viennent de déterminer une nouvelle limite sur l'évolution de l'une d'entre elles, Mu (µ), ratio entre les masses de l'électron et du proton, en fonction du temps. Leur résultat, qui est 10 fois plus précis que les mesures précédentes, confirme la compréhension scientifique actuelle de la physique.
Les scientifiques ont utilisé la lumière d'un quasar pour montrer qu'une des constantes fondamentales de la physique est très probablement restée constante à travers l'histoire de l'univers
Les constantes principales sont très finement ajustées à notre existence (ou vice-versa !) ; si l'interaction forte était ne serait-ce qu'un pour cent plus intense qu'elle ne l'est aujourd'hui, par exemple, le carbone ne pourrait pas être produit dans les étoiles, et nous ne serions pas là pour en parler. C'est une des raisons pour lesquelles de nombreux physiciens sont désireux de vérifier si certaines constantes fondamentales ont varié au cours de l'histoire de l'univers. L'une d'elles est µ, le ratio entre la masse de l'électron et celle du proton.
Habituellement, cette constante peut être calculée en analysant les données d'un télescope terrestre pointé sur un quasar, le noyau compact mais très lumineux d'une jeune galaxie, sorte de "phare" dans l'espace profond. Le spectre de la lumière des quasars couvre un large intervalle de longueurs d'onde, mais certaines d'entre elles peuvent être absorbées par des molécules situées au sein de galaxies plus anciennes lors du trajet de la lumière à travers le cosmos. Ces longueurs d'onde, apparaissant comme des raies d'absorption, correspondent à des molécules "excitées" à des niveaux plus élevés d'énergie et sont régies par µ. Comme la lumière des quasars peut mettre des milliards d'années pour parvenir sur Terre, la valeur de µ mesurée à partir de ces sources éloignées peut être comparée à sa valeur mesurée dans une expérience de laboratoire. On détermine ainsi si sa valeur s'est modifiée au cours du temps.
Victor Flambaum et Michael Kozlov, de l'université de Nouvelle Galle du Sud en Australie, ont rendu la technique plus précise en y incorporant l'analyse d'un "spectre d'inversion", produit quand les atomes des molécules absorbent la lumière et atteignent un niveau d'énergie plus élevé par effet tunnel. Comme la probabilité de l'effet tunnel dépend plus étroitement de µ que les raies d'absorption dans le spectre habituel, des variations de cette constante peuvent en être déduites plus précisément.
Flambaum et Kozlov ont utilisées des données existantes du radiotélescope d'Effelsberg en Allemagne concernant la lumière issue d'un quasar et traversant la galaxie B0218+357 à 6.5 milliards d'années-lumière de la terre, et ont analysé les deux types de spectres pour des molécules d'ammoniaque et d'autres comme celles d'oxyde de carbone. Ils ont ensuite comparé les spectres à ceux d'expériences actuelles de laboratoire et ont constaté que µ ne pouvait pas avoir diminué de plus de 4e-16, ni ne pouvait pas avoir augmenté de plus de 2e-16 par an ce qui représente une évaluation dix fois plus précise que les meilleures estimations antérieures.
L'année dernière un groupe, conduit par Wim Ubachs de l'université d'Amsterdam, avait trouvé, en utilisant la technique plus ancienne, que µ avait pu diminuer avec le temps. Si cela s'était confirmé, cela aurait signifié que les théories les plus fondamentales de la physique, comme celle de la relativité, auraient dû être reconsidérées. Flambaum a indiqué, cependant, que ses propres résultats, plus précis, prouvaient qu'il était peu probable que µ ait varié au cours du temps, et qu'ainsi notre compréhension actuelle de la physique était bonne. Le scientifique a ajouté que si plus de données pouvaient être rassemblées, sa technique d'analyse devrait permettre aux théoriciens de déterminer encore plus précisément les non-variations de µ.

Auteur: Internet

Info:

[ constantes ]

 

Commentaires: 0

nutrition

On mange moins quand le repas est servi après une activité physique coupe-faim
Manger un repas 15 minutes après une activité physique d'intensité soutenue permet de réduire de 11 % la consommation de calories - et de 23 % celle de gras - comparativement à la prise d'un repas deux heures après la séance d'exercice.
C'est ce qui se dégage d'une étude dirigée par Marie-Ève Mathieu, professeure au Département de kinésiologie de l'Université de Montréal, menée auprès de 12 jeunes hommes de poids normal âgés de 15 à 20 ans.
Les participants ont couru 30 minutes sur un tapis roulant, à une intensité de 70 % de leur capacité cardiorespiratoire, au cours de deux journées de tests. Le premier jour, l'exercice s'est terminé 15 minutes avant le repas du midi, tandis que le deuxième jour il y a eu un délai de deux heures entre la fin de l'exercice et le début du dîner.
Dans les deux cas, le dîner était un buffet composé de plats allant de la salade au gâteau en passant par des macaronis au fromage, des fettuccinis Alfredo et un risotto aux trois champignons. "Il s'agissait d'un buffet validé pour l'expérience qui se veut représentatif de ce qui peut être offert dans la réalité", mentionne Mme Mathieu.
Les données recueillies au cours de l'expérimentation ont révélé que s'alimenter 15 minutes après avoir couru réduit la consommation de calories de 154 (646 kilojoules), soit 11 % moins de calories que lorsque ces mêmes participants ont mangé deux heures après la course sur le tapis roulant.
Fait à souligner, quand les participants ont ingéré moins de calories, ils n'ont pas mangé davantage en après-midi ni au repas du soir.
Autre fait notable, bouger dans les minutes qui avaient précédé le repas a eu pour effet de réduire de 23 % la consommation d'aliments gras en comparaison de l'entraînement effectué deux heures avant de manger.
"Cette donnée rejoint d'autres études qui démontrent que l'attrait pour les aliments ou repas plus riches en gras diminue quand on est physiquement actif", dit celle qui est aussi chercheuse au Centre de recherche du CHU Sainte-Justine, affilié à l'UdeM.
Effet coupe-faim de l'activité physique
Des études ont déjà montré que, à la suite d'une activité physique d'intensité moyenne à élevée, il se produit chez l'individu un effet coupe-faim (ou anorexigène) qui s'atténue graduellement au cours des 60 minutes suivant l'exercice.
L'effort physique réduit la production d'une hormone sécrétée par l'estomac, la ghréline acylée, dont le rôle consiste à "informer" le cerveau que le corps a besoin d'être nourri.
"Ce n'est pas chez tout le monde que cet effet anorexigène transitoire se fait sentir, précise Marie-Ève Mathieu. Les hommes de poids normal le ressentent généralement plus que les femmes obèses par exemple."
Mais le moment le plus propice pour profiter de cet effet restait à déterminer, et c'est ce à quoi l'équipe de Mme Mathieu s'est attelée.
"L'effet du timing de l'activité physique par rapport à l'ingestion de calories est un concept nouveau en recherche, indique-t-elle. On sait par ailleurs que faire de l'activité physique à des moments précis est bénéfique pour améliorer le contrôle de la glycémie et de la pression artérielle."
Il est toutefois difficile, à la lumière des résultats de l'étude, d'évaluer la perte de poids qu'il serait possible d'obtenir à plus long terme en mangeant peu de temps après une activité physique ou s'il est possible ainsi de maintenir son poids. Néanmoins, cet élément pourrait faire partie d'une stratégie de contrôle du poids.
"Ce qui est intéressant, c'est qu'en modifiant une simple habitude il est pensable de perdre quelques kilos : il suffirait de modifier le moment où l'on fait de l'exercice", avance-t-elle.
"Sur le plan de la recherche, nous élaborons des interventions plus ciblées en activité physique qui ont une incidence sur la consommation alimentaire, conclut Marie-Ève Mathieu. Nos résultats ouvrent de nouvelles possibilités d'études et d'interventions en matière de prévention de prise de poids excessive sur le long terme."

Auteur: Internet

Info: http://www.techno-science.net

[ digestion ] [ sciences ] [ appétit ]

 

Commentaires: 0

sciences physiques

Le CERN relance la recherche des " particules fantômes " de l'Univers

Les scientifiques européens du CERN vont lancer la construction d'un nouvel accélérateur de particules, dans l'espoir d'identifier enfin les "particules cachées" de l'Univers.

Les scientifiques du plus grand accélérateur de particules du monde vont disposer d'un nouvel outil qui, selon les chercheurs, pourrait les aider à découvrir la face cachée de l'Univers.

L'Organisation européenne pour la recherche nucléaire (CERN) va entamer la construction d'un nouveau supercollisionneur, le "Futur collisionneur circulaire", qui sera 1 000 fois plus sensible aux particules dites "cachées", ou "fantômes", que l'équipement actuel utilisé par l'organisation.

Les accélérateurs de particules permettent aux scientifiques de recréer les conditions du Big Bang, la théorie physique qui décrit l'apparition de l'Univers.

Dans ce nouvel appareil, les particules seront projetées contre une surface solide, et non plus les unes contre les autres comme dans les accélérateurs actuels

Le collisionneur fait partie du projet SHiP (Search for Hidden Particles) du CERN, un projet en gestation depuis dix ans qui permettra d'étudier certaines des particules les plus discrètes de l'espace.

Richard Jacobsson, physicien principal au CERN, affirme que ce projet pourrait constituer une "avancée considérable" qui redéfinirait la compréhension de la création de l'Univers.

" SHiP est l'une de ces expériences qui pourraient changer le paradigme scientifique et nous faire entrer dans un tout nouveau domaine de connaissances, non seulement sur notre Univers, mais aussi sur notre position dans celui-ci", avance Richard Jacobsson lors d'une interview.

"La plupart des hypothèses que nous avons formulées jusqu'à présent pourraient être réévaluées".

Selon le physicien, les scientifiques n'ont jamais réussi à détecter ce type de particules, car ils ne disposaient pas de la technologie adéquate.

Que sont les particules fantômes ?

D'après Richard Jacobsson, tout ce que nous pouvons voir à l'œil nu depuis l'espace, y compris les étoiles et les planètes, représente environ 5 % de la matière réelle de l'Univers.

Les 95 % restants se répartissent, selon les connaissances actuelles, entre environ 26 % de matière noire et 69 % d'énergie noire, selon le physicien.

Les scientifiques utilisent actuellement le "modèle standard", qui comprend 17 particules différentes, pour expliquer la composition de l'Univers.

En 2012, les scientifiques du CERN ont découvert une nouvelle particule du modèle standard, le boson de Higgs, grâce au Grand collisionneur de hadrons, une découverte qui leur a valu le prix Nobel de physique un an plus tard.

Depuis, les tentatives d'utiliser ce même collisionneur pour mesurer les particules cachées - qui pourraient également constituer la matière noire et l'énergie noire, mais ne font pas partie du modèle standard - se sont toutes soldées par des échecs.

" La découverte du boson de Higgs a comblé un vide sans pour autant prédire quelque chose de nouveau", déclare Richard Jacobsson.

"L'idée de ce projet est née presque par hasard, d'un partenariat entre des personnes issues de différents domaines et désireuses d'explorer la physique sous un autre angle".

Les particules "cachées" ou "fantômes" sont invisibles et ont des connexions physiques plus faibles que les particules déjà découvertes, ce qui les rend difficiles à détecter.

Le Grand collisionneur de hadrons du CERN peut détecter les particules jusqu'à un mètre du site de la collision, mais les particules cachées restent invisibles beaucoup plus longtemps avant de se révéler.

Les détecteurs du nouveau collisionneur du projet SHiP seront donc placés plus loin et produiront davantage de collisions sur une toile de fond fixe afin d'identifier plus facilement ces particules.

La construction des nouvelles installations souterraines du SHiP débutera en 2026 et les premières expériences pourraient avoir lieu vers 2032.

Le futur collisionneur circulaire, quant à lui, sera mis en service dans le courant des années 2040, mais n'atteindra son plein potentiel qu'en 2070, selon des informations rapport de la BBC.

Auteur: Internet

Info: https://fr.euronews.com/ - Anna Desmarais,  26 mars 2024

[ infra-monde ] [ sub-particules élémentaires ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

entomologie

Découvrez comment certains vers du cerveau transforment les fourmis en mortes-vivantes 

(photo : Dans la tête d'une fourmi infectée par plusieurs vers plats parasites en jaune, un ver en rouge se niche à l'intérieur du cerveau de la fourmi, - image capturée par le centre d'imagerie et d'analyse du musée d'histoire naturelle de Londres.)

Peut-on comprendre l’idée d’un ver parasite dans le cerveau d’une fourmi ? Ne vous inquiétez pas, il y a des photos.

Les scientifiques ont récemment capturé les premières images montrant ces parasites " contrôlant l'esprit " en action à l'intérieur de la tête d'une malheureuse fourmi, révélant des vues inédites d'un ver plat mortel vivant dans le cerveau, Dicrocoelium dendriticum (douve lancette du foie ou lancet liver fluke)  et les indices mis au jour quant aux secrets de manipulation et de comportement du ver.

Les douves du foie de Lancet ciblent un large éventail d'espèces de fourmis. Selon les Centres de contrôle et de prévention des maladies (CDC), bien qu'elles ne pratiquent leurs tours de passe-passe que sur les fourmis hôtes, elles font du ping-pong entre plusieurs espèces pour compléter leur cycle de vie.

Sous forme d’œufs, elles habitent les excréments d’animaux de pâturage comme les cerfs ou le bétail. Une fois les excréments infectés mangés par les escargots, les larves de vers éclosent et se développent dans les intestins des mollusques. Les escargots finissent par éjecter les larves de vers sous forme de boules visqueuses, qui sont ensuite englouties par les fourmis. [ 8 terribles infections parasitaires qui feront ramper votre peau ]

C'est à l'intérieur de la fourmi que le ver se transforme. Les fourmis ingèrent généralement plusieurs vers, dont la plupart se cachent dans leur abdomen. Toutefois, l'un d'entre eux parvient jusqu'au cerveau de la fourmi, où il devient le moteur de l'insecte, l'obligeant à adopter des "comportements absurdes", ont rapporté des scientifiques dans une nouvelle étude.

Sous le contrôle du ver, la fourmi désormais zombifiée affiche un souhait de mort, grimpant sur des brins d'herbe, des pétales de fleurs ou d'autres végétaux au crépuscule, une époque où les fourmis retournent généralement à leurs nids. Nuit après nuit, la fourmi s'accroche avec ses mâchoires à une plante, attendant d'être mangée par un mammifère qui en pâture. Une fois que cela se produit, les parasites se reproduisent et pondent chez le mammifère hôte. Les œufs sont expulsés dans les selles et le cycle recommence.

Tout est question de contrôle

Pendant des années, les biologistes avaient été intrigués par la relation entre les vers plats et les fourmis, mais les détails sur la manière dont les parasites manipulent le comportement des fourmis restaient un mystère, " en partie parce que jusqu'à présent, nous n'avons pas pu voir la relation physique entre le parasite et le cerveau de fourmi ", a déclaré le co-auteur de l'étude, Martin Hall, chercheur au département des sciences de la vie du Musée d'histoire naturelle (NHM) de Londres,  Tout a changé lorsqu'une équipe de scientifiques a examiné l'intérieur de la tête et du corps des fourmis infectées à l'aide d'une technique appelée micro-tomographie par ordinateur, ou micro-CT. Cette méthode combine la microscopie et l’imagerie aux rayons X pour visualiser les structures internes de minuscules objets en 3D et avec des détails époustouflants.

(Photo : La plupart des parasites vers plats d'une fourmi infectée attendent patiemment à l'intérieur de l'abdomen de leur hôte, tandis qu'un ou plusieurs vers envahissent le cerveau de la fourmi)

Les chercheurs ont décapité des fourmis prélevées, enlevant leurs mandibules pour mieux voir l'intérieur de leur tête, puis ils ont coloré et scanné la tête et l'abdomen des fourmis, ainsi qu'un corps complet de fourmi, écrivent-ils dans l'étude.

Leurs analyses ont montré qu'une fourmi pouvait avoir jusqu'à trois vers se disputant le contrôle de son cerveau, même si un seul ver parvient finalement à entrer en contact avec le cerveau lui-même. Les ventouses orales aident les parasites à s'accrocher au tissu cérébral de la fourmi, et les vers semblent cibler une région du cerveau associée à la locomotion et au contrôle de la mandibule.

Le détournement de cette zone du cerveau permis très probablement au ver de diriger la fourmi et verrouiller ses mâchoires sur une ancre d'herbe ou de fleur en attendant d'être mangée, rapportent les auteurs de l'étude. 

Auteur: Internet

Info: https://www.livescience.com/62763-zombie-ant-brain-parasite.html, 5 juin 2018, Mindy Weisberger

[ myrmécologie ] [ nématologie ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

xénolinguistique

Q - L'humanité a-t-elle prévu un protocole "premier contact" ? 

R - Je ne sais pas si les États ont prévu quoi que ce soit. Ce que je sais, c'est que je ne connais aucun collègue linguiste à qui on a demandé de préparer quelque chose. Des réflexions ont été engagées au sein du programme SETI - qui vise à détecter la présence de civilisations extraterrestres avancées dans d'autres systèmes solaires -, mais cela concerne la communication à distance. Si la communication s'effectue face à face, les réponses se trouvent dans la linguistique de terrain. 

R - Dans ce cas, il n'y a pas de document décrivant des "étapes magiques". Il existe néanmoins un cadre de travail : quand des linguistes découvrent un peuple dont le langage est totalement inconnu, ils commencent par vivre avec ses membres, observer leur comportement, les écouter, et apprendre leur culture. Aujourd'hui, ils utilisent généralement un enregistreur pour détecter les variations parfois subtiles de la langue et retranscrivent les sons grâce à un alphabet adapté, à l'image de l'Alphabet Phonétique International. Surtout, ils décrivent le cadre dans lequel les phrases sont prononcées : si elles sont accompagnées d'un geste des mains ou des yeux ou l'utilisation d'un outil. 

Q - Quels seraient les principaux obstacles empêchant la communication entre l'humanité et des extraterrestres ? 

R - Les auteurs de science-fiction ont à peu près tout imaginé : des extraterrestres communiquant avec des motifs, des couleurs, des peintures, des tapotements, des vibrations voire même par des odeurs, ou des champs magnétiques, ces deux derniers modes étant particulièrement compliqués. Le jour du premier contact, les scientifiques installeront probablement toutes sortes de détecteurs : de vibrations et d'ondes dans toutes les gammes de fréquences imaginables, olfactifs, de mouvements hyper sensibles, etc.  

Découvrir le type de médium utilisé pour communiquer ne devrait pas être le plus dur. Ensuite, il s'agira de décrypter le contenu. Pas facile quand on part de rien, que l'on n'a pas de dictionnaire, de corpus ou de référence. Échanger un premier mot qui a du sens peut déjà se révéler complexe, mais prononcer une phrase complète, requiert de connaître la culture et les coutumes du nouveau peuple. 

Q - Vous écrivez qu'il est important de maîtriser le langage pour mieux communiquer entre nous et avec d'autres. Une promotion pour la linguistique ? 

R - Oui, car je pense qu'on ne met pas suffisamment en avant les langues et leurs complexités dans le monde actuel. Par exemple, lorsque l'on parle de sciences à la télévision, ce sont toujours les sciences dures : chimie, mathématiques, physique. On évoque trop rarement les sciences humaines comme la linguistique, qui sont pourtant très importantes.  

C'est pareil pour la science-fiction, les romans donnés aux jeunes sont souvent sur les robots, l'exploration spatiale, beaucoup moins sur les langues. Pourtant, il existe des tas de livres de SF qui sont très importants du point de vue linguistique. La sortie de 'l'ovni' Premier Contact au cinéma m'a motivé à écrire ce livre. Je me suis dit : "Ah ! Enfin un film d'extraterrestres dans lequel on parle de langage", ce qui est tout même plus intéressant que les films de guerre type Independance Day, à la fois désespérément vide et remplis de clichés éculés. 

Q - L'apprentissage de la langue d'une civilisation extraterrestre pourrait-il nous transformer ? 

R - Je pense que c'est plutôt par l'apprentissage de leur culture ou de leurs technologies que s'opéreront des changements. On sait aujourd'hui que l'hypothèse Sapir-Whorf [qui soutient que la façon dont on perçoit le monde dépend du langage] est fausse. J'explique pourquoi dans mon livre, mais pour résumer, Sapir et son élève Whorf ont eu cette idée en étudiant les langues amérindiennes. Whorf, qui n'était pas linguiste mais ingénieur, a ensuite poussé le concept de manière peu scientifique. 

Quand nous apprenons une langue, nous apprenons de nouvelles choses sur l'autre. C'est donc un super outil pour comprendre la diversité et j'encourage à le faire, mais cela ne "recâble" pas notre cerveau. Cela ne va pas nous permettre d'avoir des visions du futur comme dans Premier Contact. En ce sens le film dérive dans la fiction, ce qui n'est pas grave puisque c'est le propre de la SF d'être un laboratoire où l'on peut aller au bout de tout, même d'une hypothèse incroyable.

Auteur: Landragin Frédéric

Info: Interviewé par Victor Garcia sur https://www.lexpress.fr/le 18 10 2018

[ astrolinguistique ] [ exo-langages ]

 

Commentaires: 0

Ajouté à la BD par miguel

spiritualisme

Dans La Crise du monde moderne, Guénon explique que l’intellectualité et la société occidentales sont corrompues par des déviances anormales, opposées à l’ordre traditionnel qui était celui du Moyen Âge occidental et de l’Orient dans son ensemble. D’une part, il explique que la crise intellectuelle de l’Occident moderne prend sa source dans "l’individualisme", qu’il définit comme "la négation de tout principe supérieur à l’individualité". Cette attitude mentale caractérise la pensée moderne comme une erreur ou un système de pensée faux. En effet, l’individualisme consiste, au point de vue du connaître, à refuser de reconnaître l’existence d’une "faculté de connaissance supérieure à la raison individuelle", en même temps que, du point de vue de l’être, elle est un "refus d’admettre une autorité supérieure à l’individu". Ce lien étroit entre la connaissance et l’autorité s’explique par le fait que Guénon entend la tradition dans son sens le plus purement étymologique, comme un dépôt qui, étant transmis (tradere en latin), n’est pas inventé, mais reçu, et qui, pour cette raison, ne provient originairement pas de l’être humain par innovation, mais du supra-humain par révélation. La tradition est donc sacrée par définition selon Guénon, qui la distingue bien pour cette raison de la simple coutume : nier le fondement sacré ou divin de la tradition, c’est nier ce qui en légitimait l’autorité.

Ainsi la première forme de cette négation, dans l’ordre du connaître, se caractérise par le "rationalisme", c’est-à-dire par la "négation de l’intuition intellectuelle" et conséquemment le fait de "mettre la raison au-dessus de tout". Les Anciens en effet, de Platon à saint Thomas d’Aquin en passant par Plotin et saint Augustin, enseignaient l’existence, au-dessus de la raison humaine individuelle, d’une faculté de connaissance synthétique appartenant à l’esprit par laquelle sont intuitivement saisis les principes universels de l’être et du connaître. Par opposition, les Modernes ont cessé de reconnaître l’existence et l’efficience de l’intellect, pour le confondre à partir de Descartes avec la raison, jusqu’ici considérée comme faculté humaine et individuelle de connaissance discursive appartenant à l’âme dans son enquête des lois générales de la nature. Le mouvement amorcé par Descartes devait se confirmer avec Kant qui, renversant la hiérarchie, plaça l’intellect au-dessous de la raison sous la forme de l’entendement et déclara "inconnaissables" les objets traditionnels de la métaphysique intellectualiste d’antan, au premier rang desquels Dieu.

Rationalisme et libre-examen

Cette négation de l’intuition intellectuelle explique ainsi le passage des sciences traditionnelles aux sciences modernes : "La conception traditionnelle, écrit Guénon, rattache toutes les sciences aux principes comme autant d’applications particulières, et c’est ce rattachement que n’admet pas la conception moderne. Pour Aristote, la physique n’était que “seconde” par rapport à la métaphysique, c’est-à-dire qu’elle en était dépendante, qu’elle n’était au fond qu’une application, au domaine de la nature, des principes supérieurs à la nature et qui se reflètent dans ses lois ; et l’on peut en dire autant de la ”cosmologie“ du moyen âge. La conception moderne, au contraire, prétend rendre les sciences indépendantes, en niant tout ce qui les dépasse, ou tout au moins en le déclarant “inconnaissable” et en refusant d’en tenir compte, ce qui revient encore à le nier pratiquement.

Ce qui s’est produit dans l’ordre des sciences devait donc se produire à l’égard de l’autorité religieuse, car la raison individuelle, ne reconnaissant plus de faculté supérieure la régissant, devait prétendre se substituer à l’expertise de l’Église en matière de foi, par la pratique protestante du "libre-examen". C’était donc, dans le domaine religieux, l’analogue de ce qu’allait être le “rationalisme” en philosophie ; c’était la porte ouverte à toutes les discussions, à toutes les divergences, à toutes les déviations ; et le résultat fut ce qu’il devait être : la dispersion en une multitude toujours croissante de sectes, dont chacune ne représente que l’opinion particulière de quelques individus. Comme il était, dans ces conditions, impossible de s’entendre sur la doctrine, celle-ci passa vite au second plan, et c’est le côté secondaire de la religion, nous voulons dire la morale, qui prit la première place : de là cette dégénérescence en “moralisme” qui est si sensible dans le Protestantisme actuel. 

Le matérialisme

La négation de l’intuition intellectuelle a selon Guénon des conséquences beaucoup plus tangibles et étendues que des ruptures dans le domaine théorique. Pratiquement, en effet, c’est la conception de la nature humaine et de sa place dans l’univers qui est engagée : si l’Homme n’est plus capable d’apercevoir intellectuellement et de communier spirituellement avec les réalités surnaturelles, il se met naturellement (et comment lui en vouloir ?) à borner sa vie et ses idéaux à tout ce qui ressortit au plan matériel de l’existence (...)

Auteur: Ducay Paul

Info: Sur philitt.fr, René Guénon et la réforme de l’Occident, 27 juin 2022 - extrait

[ anti-rationalisme ] [ traditionalisme ] [ post-cybernétisme ] [ christianisme diachronique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

architecture sonore

Les intervalles essentiels de la musique sont enracinés dans le discours humain
L'utilisation de 12 intervalles dans la musique de beaucoup de cultures humaines est enracinée dans la façon physique utilisée par notre anatomie vocale pour produire de la parole, selon des chercheurs de Duke University en neurologie cognitive.
Les notes particulières utilisées dans le son musical sonnent juste à nos oreilles en raison du travail spécifique de notre appareil vocal dans toutes les langues humaines, a déclaré Dale Purves, du George Barth Geller Professor for Research in Neurobiology.
Ce n'est pas quelque chose qu'on peut entendre directement, mais quand les bruits de la parole sont examinés avec un analyseur de spectre, les rapports entre les diverses fréquences qu'un individu emploie pour faire le son des voyelles correspond d'une manière quasi parfaite et ordonnée aux rapports entre les 12 notes de la gamme chromatique musicale, dit Purves. Ce travail a été mis en ligne le 24 mai. (téléchargement à http://www.pnas.org/cgi/reprint/0703140104v1)
Purves et les co-auteurs Deborah Ross et Jonathan Choi ont testé leur idée en enregistrant les langues indigènes chinoises et anglaise en faisant dire des bruits de voyelle avec des mots simples ainsi que dans des monologues courts. Ils ont alors comparé les ratios vocaux de fréquence aux ratios numériques qui définissent des notes dans la musique.
La vocalisation humaine vient basiquement des cordes vocales dans le larynx (la pomme d'Adam, dans le cou), qui créent une série de crêtes résonnant puissamment grâce au jet d'air montant des poumons. Ces crêtes de puissance sont alors modifiées par une multitude de moyens spectaculaires comme la déformation du palais mou, de la langue, des lèvres et d'autres parties encore. Notre anatomie vocale est plutôt comme un orgue dont on pourrait étirer, pincer ou élargir les tuyaux. Les anglophones produisent environ 50 bruits différents dans leur langue de cette façon.
Cependant, en dépit de la grande variation en anatomie humaine individuelle, les bruits de la parole produit par différents individus dans différentes langues produisent la même variété de ratios de résonance dit Purves.
Les deux plus basses de ces résonances, appelées formants, sont là pour les voyelles dans la parole. Enlevez ces deux premiers formants et vous ne pourrez rien comprendre de ce qu'une personne dit. La fréquence du premier formant est entre 200 et 1.000 cycles par seconde (hertz) et le deuxième entre 800 et 3.000 hertz.
Quand les chercheurs de Duke ont examiné les rapports de ces deux premiers formants avec les spectres du langage, ils ont constaté que les ratios montraient des relations avec la musique. Par exemple, le rapport des deux premiers formants dans la voyelle anglaise /a/, comme en "physique," pourrait correspondre à l'intervalle musical entre C et A sur un clavier de piano.
"Dans environ 70 pour cent des sons de ces discours, ces ratios tombaient pile sur des intervalles musicaux" dit Purves. "Cette prédominance des intervalles musicaux cachés dans la parole suggère que les notes de la gamme chromatique musicale sonnent juste à nos oreilles parce qu'elles correspondent aux rapports auxquels nous sommes exposés sans arrêt dans nos idiomes, bien que nous soyons tout à fait ignorants de la chose."
Peu de musique, excepté certains morceaux expérimentaux modernes, emploie chacun des 12 tons. La plupart des musiques emploient une gamme diatonique de 7 tons - ou gamme diatonique - pour diviser les octaves, et beaucoup de musique folklorique n'emploient que cinq tons, la gamme pentatonique.
Ces caractériellement correspondent aux ratios des formants les plus répandus dans la parole. Purves et ses collaborateurs travaillent maintenant afin de savoir si dans une culture donnée ou il y a une particularité de ces tons ou formants, ceci est lié aux rapports de formants particulièrement répandus dans la langue maternelle d'un groupe donné.
Purves et ses collaborateurs pensent également que ces résultats peuvent aider à éclairer un débat séculaire ; à savoir quel type d'accordages fonctionne le mieux pour les instruments. Dix des 12 intervalles harmoniques identifiés dans les discours anglais et mandarin ont "la bonne intonation" qui sonne plus juste pour la plupart des musiciens qualifiés. Ils ont trouvé beaucoup moins de correspondances avec d'autres systèmes d'accordages, y compris l'accordage à tempérament égal généralement utilisé aujourd'hui.
L'accordage a tempérament égal, dans lequel chacun des 12 intervalles de la gamme chromatique est exactement le même et un schéma qui permet à un groupe tel qu'un orchestre de jouer ensemble dans différentes clefs et au travers de beaucoup d'octaves. Bien qu'un accordage à tempérament égal sonne bien, c'est juste un compromis par rapport a quelque chose d'origine plus naturelle, vocalement dérivé d'intonation juste, dit Purves.
La prochaine étude de son groupe concernera notre compréhension intuitive comme quoi un morceau musical tend à paraître joyeux s'il est dans une tonalité majeure ou relativement triste dans une tonalité mineure. Ce qui pourrait aussi provenir de la voix humaine, suggère Purves.

Auteur: Fortean Times

Info: From Duke University

[ langage ] [ sciences ]

 

Commentaires: 0

sciences

Intellectuellement Pythagore fut un des hommes les plus importants qui aient jamais vécu, autant lorsqu'il fut sage que dans ses  imprudences.

Les mathématiques, au sens de l'argumentation déductive démonstrative, commencent avec lui et, en lui, sont intimement liées à une forme particulière de mysticisme. L'influence des mathématiques sur la philosophie, en partie due à lui, aura été depuis son époque à la fois profonde et malencontreuse. 

A l'origine la plupart des sciences étaient liées à une certaine forme de fausse croyance, ce qui leur donnait une valeur fictive. L'astronomie était liée à l'astrologie, la chimie à l'alchimie alors que les mathématiques étaient associées à un type d'erreur plus raffiné. Les connaissances mathématiques apparaissaient certaines, exactes et applicables au monde réel; de plus, elles étaient obtenues par simple réflexion, sans avoir besoin d'observation. Par conséquent, on pensait qu'elles fournissaient un idéal, en rapport duquel les connaissances empiriques quotidiennes étaient  inférieures. On supposait, sur la base des mathématiques, que la pensée est supérieure au sens, l'intuition à l'observation.

Si le monde des sens ne convient pas aux mathématiques, tant pis pour le monde des sens.  On a alots, via moult méthodes, cherché à se rapprocher de l'idéal du mathématicien, et les suggestions qui en ont résulté furent la source de beaucoup d'erreurs dans la métaphysique et la théorie de la connaissance.

Cette forme de philosophie commence avec Pythagore. Pythagore, comme tout le monde le sait, a dit "tout est nombre". Cette déclaration, interprétée de manière moderne, est logiquement un non-sens, mais ce qu'il voulait dire n'était pas exactement un non-sens. Il avait découvert l'importance des nombres en musique, et le lien qu'il a établi entre la musique et l'arithmétique survit dans les termes mathématiques "moyenne harmonique" et "progression harmonique". Il considérait les nombres comme des formes, telles qu'elles apparaissent sur les dés ou sur les cartes à jouer. On parle encore de nombres au carrés et au cube, termes que nous lui devons. Il évoqua aussi des nombres oblongs, triangulaires, pyramidaux, etc. C'était le nombre de cailloux (ou, comme on devrait dire plus naturellement, de billes) nécessaires pour réaliser les formes en question. Il pensait vraisemblablement que le monde est atomique et que les corps sont constitués de molécules composées d'atomes disposés sous diverses formes.

Il espérait ainsi mettre de l'arithmétique au centre de l'étude fondamentale de la physique comme de l'esthétique.

La religion personnelle dérive de l'extase, la théologie des mathématiques ; et les deux se trouvent chez Pythagore. Les mathématiques sont, je crois, la principale source de la croyance en une vérité éternelle et exacte, ainsi qu'en un monde intelligible suprasensible. La géométrie traite de cercles exacts, mais aucun objet sensible n'est exactement circulaire ; quelle que soit le soin avec lequel nous utilisons nos boussoles, il y aura des imperfections et des irrégularités. Cela suggère l'idée que tout raisonnement exact s'applique aux objets idéaux par opposition aux objets sensibles; il est naturel d'aller plus loin et d'affirmer que la pensée est plus noble que le sens, et les objets de la pensée plus réels que ceux de la perception sensorielle. Les doctrines mystiques sur la relation entre le temps et l'éternité sont également renforcées par les mathématiques pures, car les objets mathématiques, tels que les nombres, s'ils sont réels, sont éternels et ne s'inscrivent pas dans le temps. Ces objets éternels peuvent être conçus comme les pensées de Dieu. 

D'où la doctrine de Platon selon laquelle Dieu est un géomètre et la croyance de Sir James Jeans selon laquelle il est accro à l'arithmétique. La religion rationaliste par opposition à la religion apocalyptique aura été, depuis Pythagore, et notamment depuis Platon, complètement dominée par les mathématiques et la méthode mathématique. La combinaison des mathématiques et de la théologie, qui a commencé avec Pythagore, a caractérisé la philosophie religieuse en Grèce, au Moyen Âge et dans les temps modernes jusqu'à Kant. L'orphisme avant Pythagore était analogue aux mystérieuse religions asiatiques.

Mais chez Platon, Saint Augustin, Thomas d'Aquin, Descartes, Spinoza et Kant, il y a un mélange intime de religion et de raisonnement, d'aspiration morale et d'admiration logique de ce qui est intemporel, qui vient de Pythagore et qui distingue la théologie intellectualisée de l'Europe du mysticisme plus direct de l'Asie. 

Ce n'est que très récemment qu'il a été possible de dire clairement en quoi Pythagore avait tort. Je ne connais personne qui ait eu autant d'influence que lui dans le domaine de la pensée. Je dis cela parce que ce qui apparaît comme du platonisme se révèle, après analyse, être essentiellement du pythagorisme. Toute la conception d'un monde éternel, révélé à l'intellect mais non aux sens, est dérivée de lui. Sans lui, les chrétiens n'auraient pas considéré le Christ comme le monde ; sans lui, les théologiens n'auraient pas cherché des preuves logiques de Dieu et de l'immortalité. Mais en lui, tout cela reste implicite.

Auteur: Russell Bertrand

Info: A History of Western Philosophy (1945), Book One. Ancient Philosophy, Part II. The Pre-Socratics, Ch. III: Pythagoras, p. 29 & pp. 34-37

[ historique ] [ Grèce antique ] [ langage ]

 

Commentaires: 0

Ajouté à la BD par miguel

théorie du tout

Notre réalité est pure information. Information géométrique. L'information étant le sens, sous forme de symbolisme. 

D'où la question, quel type d'information pour exprimer un langage géométrique ?

Information implique signification. Mais que veut dire signification ?

C'est une comparaison, c'est à dire la perception de quelque chose relativement à quelque chose d'autre. Ainsi, pour pouvoir exister une chose doit être perçue, ou mesurée, par quelque forme de conscience. 

Einstein a montré que passé et futur existent simultanément dans un objet géométrique ; de fait tous les temps existent conjointement (les mathématiques le montrent de plein de manières). Donc : passé et futur s'influençant sans cesse, tout est toujours dans l'instant présent. Alors, si chaque moment influence et co-crée chaque autre moment dans quelque sens que ce soit, la réalité ne peut qu'être un massif  réseau neuronal qui sillonne l'espace et le temps.

Réseau doté d'une spécificité étonnante. Il serait son propre créateur.

Parallèlement, comme l'a démontré la mécanique quantique, le futur n'est pas prédéterminé. Conséquemment existe le libre-arbitre.

Comment marche le libre-arbitre ? La physique quantique montre que la réalité n'existe que lorsqu'elle est observée. Wheeler déclara en son temps que la réalité est constitué d'informations, elles-mêmes créées par l'observation. Frank Wilczec ajouta ensuite que la physique quantique reste obscure et sujette à débat. Et qu'elle le restera tant qu'on aura pas défini, au sein du formalisme quantique, un observateur, entité moderne dont les conditions et/ou contours correspondent à une caricature reconnaissable de la conscience consciente. C'est à dire une entité, pas nécessairement terrestre, capable d'observer et mesurer.

Mais comment pourrait être cette entité ? Je suis, nous sommes... tous conscient, mais qu'est-.ce que cela veut dire ?

On sait juste que la conscience est liée de manière proche à  la science physique mais personne ne sait dire ce qu'elle hors de l'idée qu'elle joue un rôle central dans l'existence du réel.

Est-elle juste l'émergence d'une boucle de rétroaction de causalité ? Heisenberg développa en son temps les maths matricielles, arrivant à la conclusion que la réalité est pixelliseé en nano unités tridimensionnelles insécables, de la taille la plus petite dans l'échelle de Planck. Chacune (nommée tétrahedron, c'est à dire un polyèdre composé de quatre faces triangulaires) fonctionnant comme nos pixels sur les écrans TV.

Hélas ce qui précède n'apporte aucune preuve que cet espace, le notre, soit un tel ensemble uniforme, homogène, fluide, etc.  Malgré tout, mathématiquement, tout converge vers la consolidation de cette idée d'une pixellisation de la réalité.

Du coup quel code géométrique sera-t'il à même de modéliser cette réalité pixellisée ?

Les recherches au CERN ou ailleurs  sur la physique des particules conduisent toutes vers ce que les physiciens nomment "transformation de symétrie de jauge", chacune menant vers une notion de forme, géomètrique donc.

Mais ici apparait une forme, et pas n'importe laquelle. Il s'agit d'un modèle géométrique à 8 dimensions, plus précisément un crystal 8 D (Rappelons que crystal signifie motif périodique), modèle qu'on pourra se représenter tel un "treillis à 8  dimensions" (E8 lattice), structure 8 D qui présente 240 noeuds, ou points tournants (vertex-vertices), que nous nommons gosset polytope.

Lorsque ce gosset polytope est projeté en 4 dimensions il se métamorphose en deux formes identiques de tailles différentes, dont le ratio est précisément 0,618, c'est à dire celui du nombre d'or, constante fondamentale de la nature qui apparait à toutes les échelles de l'univers connu (par exemple il détermine le moment précis ou un trou noir passe de positif à négatif en étant partie de l'équation qui précise la limite inférieure de son entropie). Il se rapporte aussi à la gravité de la boucle quantique.

Ainsi ce ratio de Fibonnaci unifie les limites inférieures et supérieures (cosmiques - quantique) de la préhension du réel par les scientifiques, physiciens pour grande partie.

Et, si on revient aux maths matricielles qui fonctionnent à partir d'eigen values (Valeur propre, vecteur propre et espace propre) indiquées comme triviales (1,2 ou 0) ou non triviales (pour les nombres plus complexes.) on arrive à la partie intéressante : les deux plus grandes probabilités d'eigenvalues non triviales qui apparaissent dans une matrice binaire sont :

-  le golden ratio  et

-1 sur (over) le nombre d'or.

Tel est le lien très profond qui unit mécanique quantique et cosmologie. Ce ratio, qui est apparu dans un grand nombre d'observations, a cependant toujours été appréhendé par les scientifiques comme un truc d'amateurs. Et maintenant on constate, une fois de plus, que ce nombre d'or apparait vraiment partout.

Pour terminer résumons ici les sept indices que nous donne la nature pour contruire cette théorie du tout (emergence theory)

information

indéterminisme

boucle de causalité

conscience

pixellisation

cristal E 8  (à 8 dimensions)

nombre d'or

Auteur: Anonyme

Info: Youtube - Quantum Gravity Research, What Is Reality? Official Film. https://www.youtube.com/watch?v=w0ztlIAYTCU

[ sciences ] [ septénaire ] [ miroir anthropocentrique ] [ monde humain consensuel ] [ atemporalité ] [ programme de langlands ]

 

Commentaires: 0

Ajouté à la BD par miguel