Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 87
Temps de recherche: 0.059s

linguistique

La notion de physique a évolué entre l’Antiquité et l’époque moderne, où l’on distingue en français la physique et le physique. Histoire d’une bifurcation étymologique… 

Du grec à l’origine

Le mot physique a visiblement une forme grecque, avec son i grec, avatar d’upsilon (υ, Υ), et son ph, représentant le p aspiré noté phi (φ, Φ) en grec ancien, et bien distinct du ƒ latin. En effet, physique vient du latin physica, lui-même emprunté au grec phusikê (φυσικη).

Et parce que le ph a fini par se prononcer comme un ƒ, certaines langues l’ont abandonné (en même temps que le y) : c’est le cas de l’italien (fisica) et de l’espagnol (física), mais certes pas du français, ni de l’anglais (physics) ou de l’allemand (Physik).

L’origine naturaliste de la physique

Le point de départ est une racine indoeuropéenne signifiant "naître, croître, être", à laquelle se rattache le verbe grec phuein "naître, pousser", surtout pour les êtres vivants, d’où notamment phuton "plante, ce qui pousse", et en français l’élément phyto-, de la phytothérapie par exemple.

Du verbe phuein dérive aussi le nom phusis, désignant d’abord le règne vivant, puis en philosophie (chez Platon) la nature au sens large, y compris la matière inerte et tout l’univers… (de même en latin, natura "nature" vient de nasci "naître"). Enfin, de phusis "nature" on arrive à l’adjectif phusikos "relatif à la nature", où la nature est prise au sens restreint du monde vivant ou au sens large.

De là, l’évolution en latin et en ancien français va aboutir à deux champs sémantiques : l’un en rapport avec les êtres vivants, et surtout avec l’être humain : le physique d’une personne et l’adjectif physique à propos de ses caractères physiques, de sa force physique… (cf. en anglais physician "médecin") ; l’autre en rapport avec la nature au sens large : la physique, c’est-à-dire la science qui étudie les propriétés générales de la matière et les lois qui régissent les phénomènes matériels (cf. en anglais physicist "physicien"). 

Au commencement était Aristote

Cette dernière acception doit beaucoup, sinon tout, à Aristote qui, à Athènes entre 335 et 323 avant J.-C., écrivait ses Leçons de physique (Phusikês akroaseôs), ce qu’il est convenu de nommer la Physique d’Aristote.

Cet ouvrage traite de notions fondamentales comme la matière et la forme, le mouvement et le changement, l’infini, le vide, le temps… des notions auxquelles la physique n’a pas cessé de s’intéresser depuis, et Aristote étudiait aussi le monde vivant, mais dans d’autres traités, dont sa remarquable Histoire des animaux.

Et même si de nos jours le nom de la physique n’évoque plus les êtres vivants, il est bien formé sur le même radical phys– que les mots de la biologie comme physiologie (d’où l’anglais physiology), du grec physiologia "dissertation sur la nature" déjà attesté chez Aristote, et l’élément physio– sert à former de nombreux mots, comme physionomie, du grec phusiognômonia "art de juger quelqu’un d’après… le physique", encore une fois chez Aristote.

Épilogue : La physique moderne peut être quantique, relativiste, atomique, ou encore nucléaire… ce qui ramène au végétal, donc au vivant. Pourquoi cela ? Simplement parce que l’adjectif nucléaire remonte au latin nucleus, dont le sens premier est… "cerneau de noix", nucleus dérivant de nux, nucis "noix", d’où vient aussi noyau (cf. en anglais, atomic nucleus "noyau atomique").

Au-delà de la boutade étymologique, l’observation de la nature est bien à l’origine de toutes les connaissances humaines.

Auteur: Avenas Pierre

Info:

[ priméité ] [ monde visuel ]

 

Commentaires: 0

Ajouté à la BD par miguel

paléolinguistique

Le but de la reconstruction linguistique est d'établir la chronologie relative des étapes préhistoriques et des changements qui précèdent immédiatement les données les plus archaïques. Spéculer sur l'origine des catégories grammaticales telles que le genre, l'aspect, l'humeur, etc. est une entreprise glottogonique qui, étant donné son caractère hautement problématique, devrait être tenue à l'écart de la grammaire historique et comparative. 

L'expression "reconstruction interne" fut utilisée comme terme technique par Pisani, Hoenigswald, Bonfante et d'autres afin de désigner les conclusions diachroniques qui peuvent être tirées d'une analyse synchronique des données linguistiques sans ou avant d'avoir recours à la comparaison, à la géographie linguistique, à la "linguistique aréale" et à la glottochronologie. Les méthodes de reconstruction interne ont été appliquées à un degré croissant, plus ou moins consciemment et explicitement, par les néo-grammairiens. Ainsi, par exemple, ils ont rejeté la possibilité d'une scission phonétique spontanée et ont acquis, au moyen du concept de "loi phonétique", une assez bonne connaissance des changements phonétiques usuels. 

De même, en raison de l'élargissement constant du champ de la recherche linguistique, une attention de plus en plus grande a été accordée aux tendances générales dans le domaine de la sémantique. L'opposition entre diachronie et synchronie, impliquant des différences de buts et de méthodes linguistiques, n'est pas immédiatement donnée par le matériel à notre disposition. Le caractère à la fois transitoire et fluctuant des phénomènes linguistiques, l'hésitation entre procédures résiduelles et improductives d'une part, et les innovations et règles vivantes d'autre part, ont été fréquemment soulignés. Partout, une description "synchronique" complète d'une langue doit avoir recours aux notions d'archaïsme et d'innovation. L'éviction d'une forme ancienne par une nouvelle n'est pas un événement momentané mais un processus qui s'étend dans le temps et dans l'espace. Considéré du point de vue historique, le matériel linguistique, aussi restreint soit-il dans le temps et dans l'espace, est composé de couches chronologiques. Pour s'en rendre compte, il suffit de parcourir quelques pages d'une description minutieuse d'une langue moderne.

Face à la tâche de reconstruction des étapes linguistiques plus anciennes, les chercheurs ont été conscients de la difficulté d'une sélection appropriée du matériel. Les formes qui pourraient être nées indépendamment dans chacune des langues apparentées comme le résultat de règles de dérivation productive, par exemple γόνος = jána en védique, ne témoigne pas de l'existence d'un prototype i.e. (*ĝóno-). Meillet, entre autres, nous a appris que la reconstruction des étapes préhistoriques doit être basée sur les exceptions et les anomalies plutôt que sur les règles grammaticales d'une langue. Un autre principe important est que si une forme est restreinte aux seuls contextes résiduels (idiomes), alors que l'utilisation de son ou ses synonymes est libre, cette forme doit représenter un stade plus ancien. De tels principes méthodologiques appartiennent à ce que l'on nomme ici "reconstruction interne" au sens large.  Ils ne peuvent pas être appliqués dans chaque cas particulier, mais une fois qu'ils le sont, les résultats obtenus ont une valeur cognitive plus élevée que les conclusions obtenues par les statistiques, la linguistique aréale ou la paléontologie linguistique, qui ont un caractère stochastique. En cas de contradiction, l'inférence tirée de la reconstruction interne sera décisive.

Auteur: Kuryłowicz Jerzy

Info: Chapitre 8. Sur les méthodes de reconstruction interne

[ épistémologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

moyen âge

Or, au cours du XIIe siècle, et plus encore au XIIIe siècle, il s’est produit un événement d’une portée incalculable et dont les conséquences n’ont pas fini de se faire sentir ; il s’agit de l’arrivée en Occident des écrits d’Aristote.

Ce qui était connu d’Aristote avant le XIIe siècle, c’est ce qu’on a appelé la Logique ancienne, c’est-à-dire les deux traités des Catégories et de L’Interprétation, communiqués aux Latins par Boèce, philosophe et homme politique mort martyr en 525. Tout le reste est inconnu. La philosophie avec laquelle s’est élaborée la pensée chrétienne, dès les origines, c’est le platonisme dont le représentant le plus éminent en Occident est S. Augustin, auquel il faut joindre Denys l’Aréopagite. C’est Platon qui a régné à peu près sans partage sur la pensée chrétienne durant douze cent ans. Mais c’est un Platon dont les œuvres sont ignorées. On ne connaît à cette époque que le Phédon et le Ménon, et une petite partie du Timée dont la cosmogonie inspirera l’Ecole de Chartres. Platon n’est pas une œuvre ou des textes, c’est une doctrine, une vision du monde et de Dieu qui enseigne une certaine idée de la création du monde, d’un Dieu-Providence et de l’immortalité de l’âme.

L’arrivée d’Aristote en Europe chrétienne est toute différente : c’est l’arrivée de textes. La thèse la plus répandue soutient que les œuvres d’Aristote, la Métaphysique, l’Ethique, la Physique, le Traité de l’âme, les Traités de sciences naturelles, etc., sont arrivés par l’intermédiaire des Arabes qui avaient traduit ces œuvres du grec en arabe, mais aussi du syriaque, traductions d’ailleurs exécutées à la demande des autorités musulmanes, par des savants chrétiens orientaux. Les chrétiens d’Occident entrent en contact avec cette littérature en Espagne, lors des débuts de la Reconquista, principalement à Tolède où, à l’instigation de l’archevêque Raymond et de Dominique de Gonsalvi, est créé un collège de traducteurs où collaborent les juifs, les arabes musulmans et les chrétiens. [...] L’arrivée des textes d’Aristote en Europe chrétienne provoqua une crise culturelle majeure qui concerne toute la civilisation européenne, et pas seulement le monde restreint des philosophes. Voici pourquoi.

Aristote révélait aux chrétiens l’existence d’un mode de pensée dont ils n’avaient eu jusqu’alors aucune expérience et qu’on peut désigner d’un mot : un mode de pensée scientifique. Autant qu’un métaphysicien, Aristote est apparu – et est en réalité – un physicien, un philosophe de la physis, de la nature. Comme l’ont reconnu les historiens de la science, la physique d’Aristote est un des chefs-d’œuvre de l’esprit humain : c’est une admirable construction rationnelle. Or, la puissance de conviction de la raison est peu résistible. Ce qu’on a appelé la "crue aristotélicienne" faillit tout emporter et même la foi chrétienne. C’est qu’en effet [...] cette philosophie d’Aristote mettait en question trois dogmes fondamentaux de la révélation : le monde n’est pas créé, mais il existe depuis toujours ; Dieu n’est pas provident, il ignore le monde et ne connaît que lui-même ; enfin l’âme n’est pas immortelle, semble-t-il – car les textes d’Aristote à ce sujet sont ambigus. [...] C’est pourquoi l’Eglise ne pouvait accepter l’aristotélisme. A l’exception de la logique, tous les textes d’Aristote furent interdits de lecture à Paris en 1210, en 1215 puis, de la part de la papauté, en 1231, 1241, 1261, jusqu’à la condamnation du 7 mars 1277 [...]. Six ou sept condamnations portées au long du XIIIe siècle par l’autorité suprême, mais leur réitération même prouve leur inefficacité.

Auteur: Borella Jean

Info: "Situation du catholicisme aujourd'hui", éditions L'Harmattan, Paris, 2023, pages 191-192

[ remise en question ] [ découverte ] [ christianisme ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

advaita

Au cours de cette même période de sa vie, Bohm continua également d'affiner son approche alternative de la physique quantique. En examinant plus attentivement la signification du potentiel quantique, il se rendit compte qu'il présentait un certain nombre de caractéristiques qui impliquaient une rupture encore plus radicale avec la pensée orthodoxe. L'une d'elles est l'importance de l'intégralité. La science classique avait toujours considéré l'état d'un système dans son ensemble comme le simple résultat de l'interaction de ses parties. Cependant, le potentiel quantique remettait en cause cette vision et indiquait que le comportement des parties était en fait organisé par le tout. Non seulement l'affirmation de Bohr selon laquelle les particules subatomiques ne sont pas des "choses" indépendantes, mais font partie d'un système indivisible, fut poussée plus loin, mais on suggéra même que la totalité était en quelque sorte la réalité la plus primaire. Il expliqua également comment les électrons dans les plasmas (et d'autres états spécialisés tels que la supraconductivité) pouvaient se comporter comme des ensembles interconnectés. Comme l'affirme Bohm, ces "électrons ne sont pas dispersés car, grâce à l'action du potentiel quantique, l'ensemble du système subit un mouvement coordonné qui ressemble davantage à une danse de ballet qu'à une foule de personnes non organisées". Il note une fois de plus qu'"une telle activité globale quantique est plus proche de l'unité du fonctionnement organisé des parties d'un être vivant que du type d'unité que l'on obtient en assemblant les pièces d'une machine."

Une caractéristique encore plus surprenante du potentiel quantique était ses implications au niveau de la localisation. Dans notre vie quotidienne, les choses ont des emplacements spécifiques, mais l'interprétation de la physique quantique par Bohm indiquait qu'à l'échelle subquantique, celle où le potentiel quantique opère, la notion d'emplacement n'existe plus. Tous les points de l'espace sont alors égaux à tous les autres points de l'espace, et il est inutile de parler d'une chose comme étant séparée d'une autre. Les physiciens appellent cette propriété "non-localité". Aspect non local du potentiel quantique qui a permis à Bohm d'expliquer la connexion entre des particules jumelles sans que celà viole l'interdiction faite par la relativité restreinte pour tout ce qui se déplace plus vite que la vitesse de la lumière. Pour illustrer comment, il propose l'analogie suivante : Imaginez un poisson qui nage dans un aquarium. Imaginez également que vous n'avez jamais vu de poisson ou d'aquarium auparavant et que votre seule connaissance à leur sujet provient de deux caméras de télévision, l'une dirigée vers l'avant de l'aquarium et l'autre vers son côté. Lorsque vous regardez les deux écrans de télévision, vous pouvez penser à tort que les poissons qui s'y trouvent sont des entités distinctes. Après tout, comme les caméras sont placées à des angles différents, chacune des images sera légèrement différente. Mais en continuant à regarder, vous finirez par réaliser qu'il existe une relation entre les deux poissons. Quand l'un se tourne, l'autre fait un tour légèrement différent mais correspondant. Quand l'un fait face à l'avant, l'autre fait face à l'arrière, et ainsi de suite. Si vous n'avez pas conscience de l'ampleur de la situation, vous pourriez conclure à tort que les poissons communiquent instantanément entre eux, mais ce n'est pas le cas. Il n'y a pas de communication parce qu'à un niveau plus profond de la réalité, la réalité de l'aquarium, les deux poissons sont en fait une seule et même chose. Selon Bohm, c'est précisément ce qui se passe entre des particules telles que les deux photons émis lors de la désintégration d'un atome de positronium. 


Auteur: Talbot Michael Coleman

Info: L'univers holographique

[ brahman ] [ biais dual ]

 

Commentaires: 0

Ajouté à la BD par miguel

définition

Que signifie vraiment "disruption" ou "disruptif" et pourquoi tout le monde en parle maintenant ?

Vous avez raison: on retrouve les mots "disruption" et ses dérivés un peu partout aujourd'hui. Ainsi on entend parler de "président disruptif", de startup qui "a pour ambition de disrupter le secteur de la douche" ou d'autres qui veulent "disrupter le chômage". En mai 2017, France Télévision expliquait au Monde que les invités mystères de l'Emission Politique, comme Christine Angot, étaient "parfois disruptifs".

Selon une défitinition présente dans le Dictionnaire de la langue française (1874) d'Emile Littré, le mot disruption signifie "rupture" ou "fracture". Pourtant on ne comprend pas trop ce que signifie "fracasser le secteur de la douche".

Si "disruption" s'est échappé du cercle restreint des cruciverbistes (les amateurs de mots croisés) pour se retrouver de manière très présente dans le vocable d'aujourd'hui, c'est surtout dû à son emploi dans le milieu de l'économie avec l'apparition de jeunes entreprises (les fameuses startups), qui ont su utiliser les outils numériques pour transformer certains marchés.

On pense notamment à Uber, Airbnb ou Netflix qui ont cassé des systèmes, qui paraissaient établis, des taxis, de l'hôtellerie ou de la location de films ou de séries, en proposant des services innovants (devenir soi-même chauffeur de sa propre voiture, louer son ou ses appartements et permettre pour un prix réduire d'accéder à des catalogues entiers de contenus culturels). Depuis tout entrepeneur qui a de l'ambition et espère connaître un succès aussi important que les entreprises citées, souhaite trouver l'idée disruptive qui lui permettra de transformer un marché pour faire table rase du passé.

En janvier 2016, la rédactrice en chef du service économie de L'Obs, Dominique Nora, avait consacré un article au "concept de "Disruption" expliqué par son créateur". Elle y faisait la recension du livre "New : 15 approches disruptives de l'innovation", signé par Jean-Marie Dru. Dans cette fiche de lecture, on apprend notamment que:

" DISRUPTION est une marque appartenant à TBWA [une important agence de publicité américaine; NDLR] depuis 1992, enregistrée dans 36 pays dont l'Union Européenne, les Etats-Unis, la Russie, l'Inde et le Japon."

Mais aussi qu'il n'a pas toujours eu un aura lié à l'entreprise:

Même en anglais, au début des années 90, le mot 'disruption' n'était jamais employé dans le business. L'adjectif caractérisait les traumatismes liés à une catastrophe naturelle, tremblement de terre ou tsunami…

Selon Jean-Marie Dru, père du concept, le terme sert d'abord à qualifier la "méthodologie créative" proposée aux clients de son agence.  Puis le professeur de Harvard, Clayton Christensen, va populariser l'expression à la fin des années 90 en parlant "d'innovation disruptive". Les deux hommes ont l'air de se chamailler sur la qualité de "qui peut être disruptif?". Dru estime que "pour Christensen, ne sont disruptifs que les nouveaux entrants qui abordent le marché par le bas, et se servent des nouvelles technologies pour proposer des produits ou services moins cher " alors que lui considère que la disruption n'est pas réservée uniquement aux startups puisque de grands groupes comme Apple ou Red Bull sont capables de "succès disruptifs".

Finalement au mileu de tous ces "disruptifs", L'Obs apporte cette définition de la disruption:

"Une méthodologie dynamique tournée vers la création". C'est l'idée qui permet de remettre en question les "Conventions" généralement pratiquées sur un marché, pour accoucher d'une "Vision", créatrice de produits et de services radicalement innovants.

Force est de constater que le marketing et les médias ont employé ces mots à tire-larigot et qu'ils peuvent être désormais utilisés dans n'importe quel contexte au lieu de "changer" ou "transformer", voire même de "schtroumpfer". Ne vous étonnez pas si votre conjoint se vante d'avoir "disrupter" la pelouse en la faisant passer d'abondante à tondue, ou d'avoir "disrupté" le fait de se laver en utilisant le shampoing au lieu du gel douche... 

Auteur: Pezet Jacques

Info: Libération, 13 octobre 2017

[ mode sémantique ] [ dépaysement libérateur ] [ accélérationnisme ] [ contre-pied ] [ contraste ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

conjecture scientifique

L’Univers pourrait être dominé par des tachyons, des particules se déplaçant plus vite que la lumière

 (Photo : Une délicate sphère de gaz créée par une onde de souffle de supernova à 160 000 années-lumière de la Terre.)

Dans un article préliminaire récent, deux physiciens avancent une proposition qui pourrait révolutionner notre compréhension de l’Univers. Leur théorie audacieuse suggère que notre cosmos pourrait être gouverné par des particules hypothétiques appelées tachyons qui se déplacent toujours plus vite que la lumière.

L’hypothèse des tachyons

Dans le monde fascinant de la physique théorique où les frontières de la connaissance sont sans cesse repoussées, la quête pour comprendre les mystères de l’Univers est incessante. Récemment, deux physiciens ont par exemple fait une proposition audacieuse qui pourrait potentiellement transformer notre vision fondamentale de l’Univers : l’hypothèse des tachyons. Selon la théorie, il s’agirait de particules hypothétiques qui se déplacent toujours plus vite que la lumière.

Bien que leur existence soit largement contestée et contredite par les principes de la relativité restreinte, qui dit qu’aucune particule dotée de masse ne peut voyager à une vitesse supérieure à celle de la lumière dans le vide, les tachyons continuent de susciter l’intérêt des chercheurs en raison de leur potentiel à repousser les frontières de notre compréhension.

Comment leur présence pourrait-elle changer le monde ?

Les chercheurs avancent plus précisément l’hypothèse audacieuse que les tachyons pourraient jouer un rôle fondamental dans notre compréhension de la composition de l’Univers. Dans ce modèle, ces particules pourraient en effet être la clé pour expliquer deux phénomènes mystérieux : la matière noire et l’énergie noire. La première est une substance invisible qui compose la majorité de la masse de l’Univers observable, mais dont la nature exacte reste largement inconnue. L’énergie noire est quant à elle responsable de l’expansion accélérée de l’univers. Plus précisément, les chercheurs suggèrent que les tachyons pourraient être la véritable identité de la matière noire.

Concernant l’énergie noire, rappelons que les astronomes peuvent mesurer la luminosité intrinsèque des supernovae de type Ia, ce qui leur permet de déterminer leur distance par rapport à la Terre. En comparant cette luminosité apparente à la luminosité intrinsèque attendue d’une supernova de type Ia standard, ils peuvent calculer la distance de la supernova et ainsi estimer la distance de l’objet hôte (généralement une galaxie).

En combinant les mesures de distance de nombreuses supernovae de ce type à différentes distances, les astronomes peuvent alors tracer la relation entre la distance et le taux d’expansion de l’Univers. Dans le cadre de cette étude sur les tachyons, les chercheurs ont appliqué leur modèle cosmologique alternatif aux données observées sur ces supernovae. Il s’est alors avéré que ce dernier était tout aussi cohérent avec ces observations.

En intégrant les tachyons dans leur modèle, les physiciens suggèrent que ces particules pourraient ainsi fournir une explication unifiée à ces deux phénomènes cosmologiques complexes.

Quelles sont les limites de cette théorie ?

Malgré son potentiel révolutionnaire, la théorie des tachyons est confrontée à de nombreuses limites. Tout d’abord, leur existence même est hautement improbable selon les connaissances actuelles de la physique. En effet, la notion de voyager plus vite que la lumière soulève des questions fondamentales sur la causalité et les principes de la relativité. De plus, bien que ce modèle cosmologique puisse expliquer certaines observations, il nécessite encore des tests expérimentaux rigoureux pour être validé.

En conclusion, l’étude des tachyons représente une exploration audacieuse des limites de notre compréhension de l’Univers. Cependant, bien que cette théorie ouvre de nouvelles perspectives fascinantes, elle devra être soumise à un examen minutieux et à des tests rigoureux pour être pleinement acceptée par la communauté scientifique.

Les recherches de l’équipe ont été publiées dans la base de données pré-imprimée arXiv en mars.



 

Auteur: Internet

Info: https://sciencepost.fr/ - Brice Louvet, expert espace et sciences18 avril 2024

[ spéculations ] [ monde subatomique ] [ vitesse supraluminique ] [ effet Tcherenkov ] [ superluminique ]

 

Commentaires: 0

Ajouté à la BD par miguel

contemplation

L'étude de la méditation montre un gain de vie
LUNDI 2 mai (Health Day News) les gens qui pratiquent la méditation transcendantale ont vécu plus longtemps que les autres personnes, il y aurait une réduction de 23 pour cent du taux de mortalité. Tels sont les résultats d'une étude à long terme.
Les études précédentes avaient prouvé que la méditation transcendantale (TM) diminue le stress et, en conséquence, abaisse également la tension artérielle.
"Ce que nous savions après les quelques centaines d'autres études était que TM change les facteurs de risque physiologiques et psychologiques pour les maladies chroniques" dit Robert Schneider, directeur d'étude de l'institut pour la médecine naturelle à l'université Maharishi de Fairfield, Iowa.
"Nous avions quelques indicateurs des changements à court terme des marqueurs, mais c'est la première fois que d'une manière rigoureuse et avec un nombre décent de personnes nous pouvons montrer que cette technique esprit-corps prolonge réellement la vie... " Cela réduit toutes les causes la mort, par maladie cardiovasculaire spécifiquement. Il ne s'agit pas simplement des facteurs de risque, mais des résultats finaux."
Le centre a été établi par une concession du centre national pour la médecine complémentaire et alternative, partie des instituts nationaux de la santé, pour étudier spécifiquement la médecine naturelle en rapport aux maladies cardiovasculaires chez les populations minoritaires. L'université de Maharishi a été fondée par le yogi de Maharishi Mahesh, qui est crédité pour d'avoir présenté TM au monde.
Pour cette étude, les chercheurs ont étudié 202 hommes et femmes avec une tension artérielle modérément élevée qui avait précédemment participé aux études qui avaient pris au hasard des volontaires à la méditation transcendantale, pour un programme comportemental technique (tel que le mindfulness). Les participants ont été suivis pendant plus de 18 ans. Schneider et ses collègues ont mis à jour certaines de leurs données jusqu'à leur mort.
"Nous avons trouvé de nouvelle info pour les personnes âgées" dit Schneider "c'était plus faisable pour étudier les sujets qui avaient commencé la pratique en matière de TM il y a un certain nombre d'années. Nous avons regardé leurs enregistrements en arrière dans le temps et en avons envoyé 202 (noms) à l'index national des mort, afin de pouvoir rechercher les taux de mortalité et les causes de la mort."
En plus d'une réduction de 23 pour cent de la mort globale, les gens qui ont pratiqué TM ont montré une réduction de 30 pour cent du taux de mort par maladie cardiovasculaire ainsi qu'une réduction de 49 pour cent du taux de la mort par cancer, a montré l'étude.
"TM produit des changements du système nerveux et dans l'activité des ondes cervicales. Quand on regarde le reste du corps il y a hypotension, moins de stress des hormones, changements des facteurs de risque comportementaux comme le tabagisme et l'abus de drogue et amélioration dans la santé psychologique "Ce sont tous ces changements, plus à court terme, qui, après quelques mois, semblent affecter le résultat à long terme."
Schneider décrit TM comme "technique simple et normale pratiquée pendant 20 minutes deux fois par jour" qui a comme conséquence un état "de vigilance reposant."
"C'est l'expérience de cet état de vigilance par le repos effectué d'une manière régulière, systématique, et répétitive qui rend TM distinctif parmi les techniques de méditation qui ont été étudiées.
Il n'est pas clair de savoir si d'autres techniques de méditation ont le même effet. Quelques experts pensent qu'il y a des problèmes avec cette recherche.
D'abord les auteurs ont fourni seulement les taux relatifs d'événement, pas les taux d'absolu, dit le Dr. Robert J. Myerburg, professeur de médecine et de physiologie à l'université de l'école de Miami de médecine. "Cela indique qu'il y a un effet, mais l'impact est peu clair," il explique.
"Je ne suis pas sûr qu'il y ait quelque chose nouveau," ajoute Richard Milani, chef de section de cardiologie préventive à la clinique Ochsner de la Nouvelle-Orléans. "Nous savons que la méditation transcendantale abaisse la tension artérielle et nous savons que chez les personnes âgées, quand on baisse la pression, on voit une amélioration cardiovasculaire.
Bien que l'étude ait fait participer seulement un nombre restreint de personnes, les auteurs pensent que les résultats suggèrent que TM puisse être associé aux diminutions de la mortalité chez les personnes âgées avec une tension artérielle élevée.

Auteur: Gardner-Health Amanda

Info: mai 2005

 

Commentaires: 0

pré-singularité

Pour échapper aux régulations sur l’IA, une entreprise veut créer un État en pleine mer

Une entreprise veut créer des plateformes en mer pour entraîner des intelligences artificielles, sans respecter aucune loi. La société veut que ces plateformes soient habitées par des mercenaires et des militaires et qu’elles deviennent des États-nations indépendants.

Vous n’aimez pas les régulations ? Allez vous installer dans les eaux internationales ! Si l’idée peut paraître farfelue, c’est cependant ce que propose, très sérieusement, l’entreprise Del Complex. Cette dernière a présenté le 30 octobre 2023 dans un long thread sur X (anciennement Twitter) un gigantesque projet, censé répondre aux problèmes de l’humanité : le BlueSea Fronter Compute Cluster (ou BSFCC).

Sous couvert de sécurité, le décret présidentiel sur l’IA de Biden et l’IA Act de l’Union européenne visent à centraliser leur pouvoir ", assène Del Complex dès l’introduction de son message. " La solution se trouve en mer. Les BSFCC ne sont pas seulement des plateformes informatiques basées sur des barges, mais des États-nations souverains. " Si le projet semble tellement démesuré qu’il pourrait prêter à sourire, il pourrait bien voir le jour et parvenir, comme il le veut, à échapper à toutes régulations internationales.

Des plateformes installées en eaux internationales pour entraîner des IA sans limites

Del Complex se vante d’être une " société de réalité alternative ", spécialisée dans l’intelligence artificielle, dont le but est de développer une IA générale qui pourrait être implantée dans le cerveau humain grâce à des prothèses neuronales. Pour parvenir à ce but, l’entreprise a besoin de beaucoup de puissance de calcul, mais surtout, d’une législation qui lui permettrait de faire ce qu’elle veut — ce qui n’est pas vraiment le cas.

Del Complex explique, dans la page dédiée au projet, être farouchement opposé aux tentatives actuelles de régulation de l’IA par différents états. Selon l’entreprise, elles " ralentissent le rythme de l’innovation ", et elles " interfèrent également avec le don cosmique de l’humanité " qu’est l’IA.

Alors, pour échapper à " la réglementation draconienne de l’IA ", Del Complex a imaginé son plan de BSFCC. " Libérés de toute surveillance réglementaire, les BlueSea Frontier Compute Clusters offrent des opportunités inégalées pour former et déployer la prochaine génération de modèles d’IA à grande échelle. "

Concrètement, Del Complex veut déployer des plateformes maritimes, équipées de nombreux ordinateurs et d’une énorme puissance de calcul, dans les eaux internationales. Installées à cet endroit, les plateformes n’auraient pas besoin de respecter les différentes réglementations sur l’IA, selon Del Complex. L’entreprise indique ainsi qu’elles ne seront " pas gênées par les règles juridiques conventionnelles ", et que les plateformes pourront " accéder à des documents autrement restreints, qu’il s’agisse de documents protégés par des droits d’auteur, de documents d’entreprise ou de documents confidentiels ".

Les plateformes seraient, d’après l’entreprise, libres de faire ce qu’elles veulent — et elles pourraient également devenir des États souverains, car elles posséderaient un territoire défini, un gouvernement (on imagine que ce gouvernement serait de fait l’entreprise), une population permanente et la capacité à entrer en relation avec d’autres États. Dans les faits, on ne sait pas si les plateformes pourraient complètement être considérées comme des entités à part entière, étant donné que Del Complex est une entreprise américaine, et que les plateformes sont des navires, qui doivent battre pavillon (être affilié à un pays).

Ces considérations ne semblent cependant pas gêner Del Complex. L’entreprise précise aussi que ces plateformes / États-nations seraient habitées par " une population permanente de militaires venant de nations alliées, et de personnels de Xio Sky Security Solutions ", une entreprise de mercenaires.

Des plateformes équipées de laboratoires pour entraîner des intelligences artificielles sur des données habituellement interdites, le tout pour créer des implants neuronaux, naviguant dans les eaux internationales et habitées par des militaires et des mercenaires… tout cela vous parait trop gros pour être vrai ? Pourtant, c’est exactement la dystopie que Del Complex veut construire.

L’entreprise ne voit cependant pas le problème. " Alors que certaines entités internationales pourraient percevoir le BSFCC comme une méthode pour contourner les lois, notre mission est ancrée dans le progrès et l’innovation ", explique-t-elle. " Alors que le monde délibère sur l’avenir de la réglementation de l’IA, Del Complex invite les visionnaires à embarquer pour un voyage vers la prochaine frontière de l’innovation de l’IA, avec le BlueSea Frontier Compute Cluster. " Reste à voir si le projet verra vraiment le jour — et si les organisations internationales laisseront vraiment de nouveaux États-nations peuplés de militaires se créer au milieu de l’océan.

Auteur: Internet

Info: https://www.numerama.com/ Aurore Gayte, novembre 2023

[ incubateurs ] [ libertariens ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

extension

La conscience humaine pourrait être un effet de l’entropie 

Une nouvelle étude suggère que la conscience pourrait être une caractéristique émergente découlant de l’effet d’entropie, soit le mécanisme physique faisant que le désordre au sein de tout système ne peut faire qu’augmenter, et par le biais duquel le cerveau maximiserait les échanges d’informations. Cette conclusion a été déduite de l’analyse de l’activité cérébrale de patients épileptiques ou non, indiquant que les états d’éveil normaux (ou conscients) sont associés à des valeurs entropiques maximales.

En thermodynamique, l’entropie se traduit par le passage inéluctable d’un système d’un agencement ordonné à désordonné. La valeur entropique est le niveau de désorganisation de ce système. Les physiciens suggèrent qu’après le Big Bang, l’Univers est progressivement passé d’un état entropique faible à élevé et qu’à l’instar du temps, l’entropie ne peut qu’augmenter au sein d’un système. De leur côté, les neurobiologistes estiment que le principe est transposable à l’organisation de nos connexions neuronales.

La question est de savoir quel type d’organisation neuronale sous-tend les valeurs de synchronisation observées dans les états d’alerte normaux ou non. C’est ce que des chercheurs de l’Université de Toronto et de l’Université de Paris Descartes ont exploré. " Nous avons cherché à identifier les caractéristiques globales de l’organisation du cerveau qui sont optimales pour le traitement sensoriel et qui peuvent guider l’émergence de la conscience ", expliquent-ils dans leur étude, publiée dans la revue Physical Review E.

Les observations de l’activité cérébrale chez l’Homme ont montré qu’elle est sujette à une importante fluctuation au niveau des interactions cellulaires. Cette variabilité serait à la base d’un large éventail d’états, incluant la conscience. D’un autre côté, des travaux antérieurs traitant du fonctionnement cérébral ont suggéré que l’état conscient n’est pas nécessairement associé à des degrés élevés de synchronisation entre les neurones, mais davantage à des niveaux moyens. Les chercheurs de la nouvelle étude ont alors supposé que ce qui est maximisé au cours de cet état n’est pas la connectivité neuronale, mais le nombre de configurations par lesquelles un certain degré de connectivité peut être atteint.

État de conscience = entropie élevée ?

Dans le cadre de leur analyse, les scientifiques ont utilisé la mécanique statistique pour l’appliquer à la modélisation de réseaux neuronaux. Ainsi, cette méthode permet de calculer des caractéristiques thermodynamiques complexes. Parmi ces propriétés figure la manière dont l’activité électrique d’un ensemble de neurones oscille de façon synchronisée avec celle d’un autre ensemble. Cette évaluation permet de déterminer précisément de quelle façon les cellules cérébrales sont liées entre elles.

Selon les chercheurs, il existerait une multitude de façons d’organiser les connexions synaptiques en fonction de la taille de l’ensemble de neurones. Afin de tester leur hypothèse, des données d’émission de champs électriques et magnétiques provenant de 9 personnes distinctes ont été collectées. Parmi les participants, 7 souffraient d’épilepsie. Dans un premier temps, les modèles de connectivité ont été évalués et comparés lorsqu’une partie des volontaires était endormie ou éveillée. Dans un deuxième temps, la connectivité de 5 des patients épileptiques a été analysée, lorsqu’ils avaient des crises de convulsions ainsi que lorsqu’ils étaient en état d’alerte normal. Ces paramètres ont ensuite été rassemblés afin de calculer leurs niveaux d’entropie cérébrale. Le résultat est le même dans l’ensemble des cas : le cerveau affiche une entropie plus élevée lorsqu’il est dans un état de conscience.

Les chercheurs estiment qu’en maximisant l’entropie, le cerveau optimise l’échange d’informations entre les neurones. Cela nous permettrait de percevoir et d’interagir de manière optimale avec notre environnement. Quant à la conscience, ils en ont déduit qu’elle pourrait tout simplement être une caractéristique émergente découlant de cette entropie. Toutefois, ces conclusions sont encore hautement spéculatives en raison des limites que comporte l’étude, telles que le nombre restreint de participants à l’étude. Le terme " entropie " devrait même être considéré avec parcimonie dans ce cadre, selon l’auteur principal de l’étude, Ramon Guevarra Erra de l’Université de Paris Descartes.

De nouvelles expériences sur un échantillon plus large sont nécessaires afin de véritablement corroborer ces résultats. On pourrait aussi évaluer d’autres caractéristiques thermodynamiques par le biais de l’imagerie par résonance magnétique, qui peut être utilisée pour mesurer l’oxygénation — une propriété directement liée au métabolisme et donc à la génération de chaleur (et de ce fait d’augmentation de l’entropie). Des investigations menées en dehors de conditions d’hôpital seraient également intéressantes afin d’évaluer des états de conscience associés à des comportements cognitifs plus subtils. On pourrait par exemple analyser l’activité cérébrale de personnes exécutant une tâche spécifique, comme écouter ou jouer de la musique.

Auteur: Internet

Info: https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano - 19 octobre 2023

[ complexification ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

monde subatomique

Des physiciens ont découvert une force inattendue agissant sur les nanoparticules dans le vide

Ils ont découvert une nouvelle force inattendue qui agit sur les nanoparticules dans le vide, leur permettant d’être poussées par le " néant ".

Bien entendu, la physique quantique commence à préciser que ce " néant ", n’existe pas réellement : même le vide est rempli de petites fluctuations électromagnétiques. Cette nouvelle recherche est une preuve supplémentaire que nous commençons à peine à comprendre les forces étranges qui agissent au plus petit niveau du monde matériel, nous montrant comment le néant peut entraîner un mouvement latéral.

Alors comment est-ce que le vide peut porter une force ? L’une des premières choses que nous apprenons en physique classique est que dans un vide parfait (un lieu donc entièrement dépourvu de matière), la friction ne peut pas exister car l’espace vide ne peut pas exercer une force sur les objets qui le traversent.

Mais ces dernières années, les physiciens spécialisés dans le domaine quantique ont montré que le vide est en réalité rempli par de petites fluctuations électromagnétiques qui peuvent interférer avec l’activité des photons (les particules de lumière), et produire une force considérable sur les objets.

Il s’agit de l’effet Casimir, qui a été prédit en 1948 par le physicien néerlandais Hendrick Casimir*. À présent, la nouvelle étude a démontré que cet effet est encore plus puissant que ce que l’on imaginait auparavant. En effet, ce dernier ne peut être mesuré qu’à l’échelle quantique. Mais comme nous commençons à élaborer des technologies de plus en plus petites, il devient évident que ces effets quantiques pourraient fortement influencer certaines de nos technologies de manière globale.

Ces études sont importantes car nous développons des nanotechnologies qui travaillent avec des distances et des tailles si petites, que ce type de force peut dominer tout le reste ", explique le chercheur principal Alejandro Manjavacas de l’Université du Nouveau-Mexique, aux États-Unis. " Nous savons que ces forces de Casimir existent, alors ce que nous essayons de faire, c’est de trouver l’impact général qu’elles ont sur de très petites particules ", ajoute-t-il.

Afin de découvrir de quelle manière l’effet Casimir pourrait avoir un impact sur les nanoparticules, l’équipe a analysé ce qui s’est passé avec des nanoparticules tournant près d’une surface plane, dans le vide. Ils ont ensuite découvert que l’effet Casimir pouvait effectivement pousser ces nanoparticules latéralement, même si elles ne touchent pas la surface.

Pour imager la chose, imaginez une minuscule sphère tournant sur une surface qui est constamment bombardée de photons. Alors que les photons ralentissent la rotation de la sphère, ils provoquent également un déplacement de cette dernière dans une direction latérale :

(Photo : En rouge, la rotation de la sphère. En noir, la distance de la sphère par rapport à la surface plane et en bleu, l’effet de Casimir latéral.)

Dans le domaine de la physique classique, il faudrait un frottement entre la sphère et la surface pour atteindre ce type de mouvement latéral, mais le monde quantique ne suit pas les mêmes règles : la sphère peut être poussée sur une surface, même si elle ne la touche pas. " La nanoparticule subit une force latérale comme si elle était en contact avec la surface, bien qu’elle soit en réalité séparée de celle-ci ", explique Manjavacas. " C’est une réaction étrange, mais qui peut avoir un impact considérable pour les ingénieurs ", ajoute-t-il.

Cette nouvelle découverte pourrait bien jouer un rôle important dans la manière dont nous développerons des technologies de plus en plus miniaturisées à l’avenir, y compris des dispositifs tels que les ordinateurs quantiques.

Les chercheurs affirment qu’ils pourraient contrôler la direction de la force en changeant la distance entre la particule et la surface, ce qui pourrait s’avérer utile pour les ingénieurs et les scientifiques travaillant sur des méthodes de manipulation de la matière, à l’échelle nanoscopique. 

L’étude a déjà été publiée dans le Physical Review Letters et les résultats doivent à présent être reproduits et vérifiés par d’autres équipes. Mais le fait que nous ayons maintenant la preuve qu’une nouvelle force intrigante pourrait être utilisée pour diriger des nanoparticules dans le vide est très intéressant et met en lumière un tout nouvel élément du monde quantique et ses forces encore largement incomprises. 



*( L'effet Casimir, prédit en 1948 par le physicien néerlandais Hendrick Casimir, est un phénomène quantique où deux plaques métalliques parfaitement conductrices placées dans le vide s'attirent l'une vers l'autre avec une force inversement proportionnelle au carré de leur distance.12 Cet effet résulte de la pression exercée par les fluctuations quantiques du vide sur les plaques.

Explication de l'effet

Selon la théorie quantique des champs, le vide n'est pas complètement vide mais contient des fluctuations d'énergie sous forme de particules virtuelles qui apparaissent et disparaissent constamment. Entre deux plaques rapprochées, ces fluctuations sont restreintes par les conditions aux limites imposées par les plaques conductrices. Cela crée une différence de pression de radiation entre l'intérieur et l'extérieur des plaques, générant une force attractive entre elles.

Observation expérimentale

Bien que prédit théoriquement en 1948, l'effet Casimir n'a été observé expérimentalement pour la première fois qu'en 1997, confirmant ainsi l'existence de cette force quantique dans le vide. Cette découverte a renforcé la compréhension de la nature quantique du vide et de ses effets mesurables. (Source : anthropic) 

Auteur: Internet

Info: https://trustmyscience.com/ - Stéphanie Schmidt, 12 avril 2017

[ éther ] [ vacuité source ]

 

Commentaires: 0

Ajouté à la BD par miguel