Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 193
Temps de recherche: 0.0546s

microbiologie

Les bactéries prennent des décisions basées sur des souvenirs générationnels

Elles choisissent de pulluler en fonction de ce qui est arrivé à leurs arrière-grands-parents.

Même les organismes sans cerveau peuvent se souvenir de leur passé : les scientifiques ont découvert que la bactérie Escherichia coli forme son propre type de mémoire suite à son exposition aux nutriments. Ils transmettent ces souvenirs aux générations futures, ce qui peut les aider à échapper aux antibiotiques, a rapporté l'équipe de recherche dans les Actes de la National Academy of Sciences USA .

" Nous considérons généralement les microbes comme des organismes unicellulaires [qui] font chacun leur propre travail ", explique George O'Toole, microbiologiste au Dartmouth College, qui étudie les structures bactériennes appelées biofilms. En réalité, les bactéries survivent souvent en travaillant ensemble. Tout comme les abeilles qui déménagent leur ruche, les colonies de bactéries à la recherche d’un habitat permanent se déplacent souvent sous forme d’unités collectives appelées essaims.

Ces essaims peuvent mieux résister à l’exposition aux antibiotiques en raison de leur densité cellulaire élevée, ce qui les rend particulièrement intéressants pour les microbiologistes tels que Souvik Bhattacharyya de l’Université du Texas à Austin. Il étudiait le comportement d’essaimage d’ E. coli lorsqu’il a observé ce qu’il appelle des " modèles de colonies étranges " qu’il n’avait jamais vus auparavant. En isolant des bactéries individuelles, lui et ses collègues ont découvert que les cellules se comportaient différemment en fonction de leur expérience passée. Les cellules bactériennes des colonies qui avaient déjà essaimé étaient plus enclines à essaimer à nouveau que celles qui ne l'avaient pas fait, et leur progéniture a emboîté le pas pendant au moins quatre générations, soit environ deux heures.

En modifiant le génome d'E. coli , les scientifiques ont découvert que cette capacité repose sur deux gènes qui contrôlent ensemble l'absorption et la régulation du fer. Les cellules présentant de faibles niveaux de cet important nutriment bactérien semblaient prédisposées à former des essaims mobiles. Les chercheurs soupçonnent que ces essaims pourraient alors rechercher de nouveaux emplacements présentant des niveaux de fer idéaux, explique Bhattacharyya.

Des recherches antérieures ont montré que certaines bactéries peuvent se souvenir et transmettre à leur progéniture des détails de leur environnement physique, tels que l'existence d'une surface stable, explique O'Toole, mais cette étude suggère que les bactéries peuvent également se souvenir de la présence de nutriments. Les bactéries, dont certaines se reproduisent plusieurs fois par heure, utilisent ces détails pour déterminer l'adéquation à long terme d'un emplacement et peuvent même s'installer ensemble dans des biofilms, qui sont plus permanents.

Les microbes autres que E. coli se souviennent probablement aussi de l'exposition au fer, dit O'Toole. " Je serais vraiment choqué si [ces résultats] ne tenaient pas également dans d'autres bugs." Il espère que les recherches futures examineront au niveau cellulaire comment les bactéries traduisent la détection du fer en différents comportements.

Étant donné que les bactéries sont plus difficiles à tuer lorsqu’elles forment des structures plus grandes, comprendre pourquoi elles le font pourrait éventuellement conduire à de nouvelles approches pour lutter contre les infections tenaces. Cette recherche offre l'opportunité de développer de nouveaux traitements contre les infections, dit O'Toole, d'autant plus cruciale que les antibiotiques deviennent de moins en moins efficaces pour tuer ces microbes,



 

Auteur: Internet

Info: https://www.scientificamerican.com/, Allison Parshall, 29 JANVIER 2024

[ atavismes ] [ adaptation ] [ transgénérationnel ] [ procaryotes ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

nature

Le rôle écologique des espèces rares est unique
De nombreuses espèces rares jouent un rôle écologique unique, et sont, de ce fait, irremplaçables, même dans les écosystèmes les plus diversifiés de la planète. C'est ce que vient de montrer une équipe internationale menée par des chercheurs du CNRS, de l'Université Montpellier 2, de l'INRA, de l'EPHE et de l'IRD. À partir de données issues de trois écosystèmes très différents (récifs coralliens, prairies alpines et forêts tropicales), les scientifiques ont découvert que les fonctions écologiques uniques (comme une résilience exceptionnelle au feu et à la sécheresse) sont majoritairement portées par les espèces rares et sont donc particulièrement vulnérables à l'érosion de la biodiversité. Ces fonctions pourraient s'avérer cruciales pour le fonctionnement des écosystèmes en cas de changements environnementaux majeurs. Publiés le 28 mai 2013 dans la revue Plos Biology, ces travaux montrent que la sauvegarde de la biodiversité dans son ensemble est capitale pour la résilience et la survie des écosystèmes.
Les milieux où la biodiversité est élevée sont caractérisés par un grand nombre d'espèces rares, c'est-à-dire qui présentent une faible abondance locale ou une aire de distribution limitée. Leur importance fonctionnelle est souvent perçue comme secondaire: elles sont considérées comme ayant une influence mineure sur le fonctionnement des écosystèmes et comme n'offrant qu'une "assurance" écologique en cas de disparition d'espèces plus communes. Les travaux publiés dans Plos Biology viennent réfuter cette idée.
Les chercheurs se sont intéressés aux traits fonctionnels d'un très grand nombre d'espèces d'animaux et de plantes. Ces traits permettent, en écologie, de décrire une espèce: est-ce un animal carnivore ou herbivore, diurne ou nocturne, fouisseur ou volant ? Est-ce une plante résistante ou non à la sécheresse, cherchant ou pas la lumière directe, préférant les sols acides ou basiques ? L'ensemble des traits fonctionnels d'une espèce sous-tendent sa fonction écologique.
Les scientifiques ont ensuite testé l'hypothèse selon laquelle les espèces rares assureraient des fonctions originales dans les écosystèmes. Pour cela, ils ont croisé les informations biologiques et biogéographiques de 846 espèces de poissons de récifs coralliens, 2 979 espèces de plantes alpines et 662 espèces d'arbres tropicaux originaires de Guyane. Leur hypothèse s'est révélée juste: les espèces qui présentent des combinaisons exceptionnelles de traits fonctionnels et qui, par conséquent, jouent un rôle écologique unique, sont majoritairement des espèces rares.
Trois exemples permettent d'illustrer leurs résultats: la murène géante javanaise (Gymnothorax javanicus) se nourrit la nuit de poissons et invertébrés cachés dans les labyrinthes coralliens. Elle permet ainsi l'élimination de proies, souvent fragilisées, inaccessibles aux autres prédateurs. Le saxifrage pyramidal (Saxifraga cotyledon), une plante alpine, constitue quant à lui une ressource unique pour les pollinisateurs des parois rocheuses. La sapotacée Pouteria maxima, arbre massif de la forêt tropicale de Guyane, présente une exceptionnelle résilience au feu et à la sécheresse, ce qui permet la recolonisation par la forêt d'espaces dévastés par le feu. Ces espèces rares n'ont que peu d'équivalents fonctionnels dans leurs écosystèmes respectifs.
Portées par des espèces vulnérables, les fonctions uniques pourraient disparaître alors qu'elles peuvent s'avérer importantes pour le fonctionnement des écosystèmes en cas de changements environnementaux majeurs et déterminer leur résistance aux perturbations. Ainsi, ce travail souligne l'importance de la conservation des espèces rares et la nécessité de mener de nouvelles expérimentations permettant de tester explicitement l'influence de la rareté sur les processus écologiques.

Auteur: http://www.techno-science.net

Info: 30 mai 2013

[ survie ] [ harmonie ] [ sciences ] [ niches ]

 

Commentaires: 0

monde subatomique

Des physiciens comprennent enfin pourquoi l’interaction forte est si tenace 

Il existe quatre forces fondamentales : la force de gravité, l’électromagnétisme, l’interaction faible et l’interaction (ou force) forte. Cette dernière est la plus intense. L’interaction forte agit en liant les quarks au sein des protons et des neutrons. Elle maintient ainsi les nucléons ensemble pour former des noyaux atomiques. La force forte est jusqu’à 100 000 milliards de milliards de fois plus intense que la force de gravité. Malgré cette intensité, elle est relativement peu comprise, par rapport aux autres forces. Récemment, des chercheurs ont percé l’un des mystères de l’interaction forte expliquant sa ténacité et sont notamment parvenus à la mesurer de façon plus précise.

L’interaction forte est quantifiée par la constante de couplage (que les auteurs de l’étude choisissent d’appeler simplement " couplage "), notée αs (alpha s). Il s’agit d’un paramètre fondamental dans la théorie de la chromodynamique quantique (QCD).

La difficulté de la mesure de αs réside principalement dans sa nature très variable : plus deux quarks sont éloignés, plus le couplage est élevé, et plus l’attraction entre eux devient forte. À des distances faibles, où αs est encore faible, les physiciens parviennent à appliquer des méthodes de calcul basique pour déterminer le couplage. Cependant, ces techniques deviennent inefficaces à des distances plus importantes. Dans une nouvelle étude, des physiciens ont ainsi réussi à appliquer de nouvelles méthodes pour mieux déterminer αs à des distances plus importantes. 

Un calcul basé sur l’intégrale de Bjorken

Poussé par sa curiosité, l’un des chercheurs a testé l’utilisation de l’intégrale de Bjorken pour prédire αs sur de longues distances. Cette méthode permet de définir des paramètres relatifs à la rotation de la structure des nucléons et ainsi de calculer le couplage de la force forte à courte distance. Le scientifique ne s’attendait donc pas à faire une découverte de ce calibre en faisant cet essai. Pourtant, contre toute attente, ses résultats ont montré qu’à un moment donné, αs cesse d’augmenter pour devenir constant. Il a ainsi partagé ses découvertes avec son mentor qui avait, lui aussi, obtenu des résultats similaires dans des travaux antérieurs.

 "Ce fut une chance, car même si personne ne s’en était encore rendu compte, l’intégrale de Bjorken est particulièrement adaptée aux calculs de αs sur de longues distances ", déclarent les chercheurs dans un article du Scientific American. Les résultats ont été présentés lors de diverses conférences de physique, durant l’une desquelles l’auteur principal a rencontré un autre physicien, Stanley Brodsky, qui aurait appuyé les résultats obtenus.

Une méthode par holographie

En parallèle à cette découverte, d’autres physiciens ont travaillé sur la mise au point d’une autre méthode de calcul de αs sur de longues distances, qu’ils ont appelée " holographie du front lumineux ". L’holographie est une technique mathématique qui a initialement été développée dans le contexte de la théorie des cordes et de la physique des trous noirs.

Cependant, en physique des particules, elle sert à modéliser des phénomènes en quatre dimensions (incluant les trois dimensions spatiales et une dimension temporelle) en se basant sur des calculs effectués dans un espace à cinq dimensions. Dans cette méthode, la cinquième dimension n’est pas nécessairement une dimension physique réelle, mais peut servir d’outil mathématique pour faciliter les calculs. L’idée est que certaines équations complexes en quatre dimensions peuvent devenir plus simples ou plus intuitives quand elles sont envisagées dans un espace à cinq dimensions.

Auteur: Internet

Info: https://trustmyscience.com/ - Miotisoa Randrianarisoa & J. Paiano·15 avril 2024

[ gluons ] [ force de cohésion nucléaire ]

 

Commentaires: 0

Ajouté à la BD par miguel

ADN

Le génome humain: un orchestre complexe
Une équipe de généticiens suisses de l'Université de Genève (UNIGE), de l'École Polytechnique Fédérale de Lausanne (EPFL) et de l'Université de Lausanne (UNIL) a découvert que les variations génétiques sont en mesure d'affecter l'état du génome à de nombreux endroits, apparemment séparés, et de moduler par conséquent l'activité des gènes, à la manière d'un chef d'orchestre coordonnant les instrumentistes pour qu'ils jouent en harmonie. Ces résultats inattendus, publiés dans Cell, révèlent le caractère polyvalent de la régulation du génome et offrent de nouvelles perspectives sur la façon dont il est orchestré.
La chromatine est un ensemble de protéines et d'ADN qui emballe le génome dans une cellule. Elle arrange l'ADN de telle sorte qu'il puisse être "lu" par un groupe de protéines appelé facteurs de transcription, qui active ou réprime l'expression des gènes. La séquence d'ADN varie toutefois d'un individu à l'autre, entraînant ainsi une variation moléculaire entre les états de la chromatine des individus. Cela finit par causer des variations dans la manière dont les humains répondent à l'environnement. Comprendre les processus génétiques et moléculaires régissant la variabilité de la chromatine est l'un des défis les plus importants dans le domaine des sciences de la vie qui permettrait de découvrir comment les variations génétiques prédisposent les individus à certaines maladies comme le cancer, le diabète ou les maladies auto-immunes.
L'étude publiée dans Cell montre comment les variations génétiques ont affecté trois couches moléculaires dans les lignées cellulaires immunes chez 47 individus dont les génomes ont été entièrement séquencés: au niveau des interactions entre l'ADN et les facteurs de transcription, des états de la chromatine et de l'expression des gènes. "Nous avons observé que les variations génétiques à un endroit précis du génome impactent plusieurs éléments régulateurs, pourtant séparés, en même temps. Cette coordination surprenante peut être comparée à un chef d'orchestre (ici le variant génétique) qui coordonne tous les instrumentistes (ici les facteurs de transcription et les modifications de la chromatine) pour changer le volume (ici l'expression des gènes) de la musique," explique le professeur Bart Deplancke de l'EPFL. Contrairement au modèle traditionnel qui suppose que l'impact des éléments régulateurs sur l'expression des gènes se fait de façon quasiment indépendante, les chercheurs suisses ont identifié un comportement bien plus harmonieux et synergique.
Les généticiens suisses montrent que le génome n'est pas juste un ensemble linéaire d'éléments qui interagissent par paires ; il s'organise de manière complexe et en réseaux. Si un élément n'agit pas correctement, c'est l'ensemble du système qui sera perturbé. "Nous avons découvert les règles biologiques de base sur le fonctionnement du génome et la manière dont les séquences régulatrices agissent ensemble pour impacter l'expression d'un gène," résume le professeur Alexandre Reymond de l'UNIL.
Si la route vers de potentielles applications médicales est encore longue, les principes mécaniques que les chercheurs viennent de découvrir mettent en lumière les aspects fondamentaux de la biologie du génome. "Il est encore trop tôt pour déterminer si nous serons un jour en mesure de moduler l'expression des gènes de manière ciblée, mais cette étude révèle un niveau de complexité de la fonction du génome qui n'avait pas été anticipé", conclut le professeur Emmanouil Dermitzakis de l'UNIGE. "Appliquer notre découverte à la médecine signifierait identifier un seul chef d'orchestre et définir son rôle parmi tous les autres chefs d'orchestre pour chaque ensemble musical - plutôt que simplement lister tous les artistes jouant dans notre orchestre de génomes."

Auteur: Internet

Info: 21 aout 2015

[ pilotage ] [ guidage ] [ lamanage ] [ gouvernance ] [ méta-moteur ]

 

Commentaires: 0

neuroscience

On sait enfin pourquoi le cerveau consomme autant d'énergie

La faute a des petites pompes "cachées". 

Les scientifiques le savent: le cerveau humain est une véritable machine insatiable en énergie. Au total, il en engloutit jusqu'à 10 fois plus que le reste du corps. Et même lorsque nous nous reposons, 20% de notre consommation de carburant est directement utilisé pour son fonctionnement. Un phénomène inexpliqué sur lequel nombre de scientifiques se sont cassés les dents. Jusqu'à aujourd'hui.

Publiée dans la revue Science Advances, une nouvelle étude explique l'origine du processus. Un processus qui se déroule dans ce que l'on appelle les vésicules synaptiques.

Entre deux neurones se trouve une synapse, zone qui assure la transmission des informations entre ces deux cellules nerveuses. Quand un signal est envoyé d'un neurone à un autre, un groupe de vésicules aspire les neurotransmetteurs à l'intérieur du premier neurone, au bout de sa queue. Le message est ainsi bien enveloppé, comme une lettre prête à être postée.

L'information est ensuite amenée jusqu'au bord du neurone, où elles fusionne avec la membrane, avant de relâcher les neurotransmetteurs dans la fameuse synapse. Dans cette zone, les neurotransmetteurs finissent leur course en entrant en contact avec les récepteurs du deuxième neurone. Et hop! Le message est passé.

Facile direz-vous. Certes, mais tout ceci nécessite beaucoup d'énergie cérébrale, ont découvert les scientifiques. Et ce, que le cerveau soit pleinement actif ou non.

En effectuant plusieurs expériences sur les terminaisons nerveuses, les membres de l'étude ont observé le comportement de la synapse lorsqu'elle est active ou non. Résultat: même quand les terminaisons nerveuses ne sont pas stimulées, les vésicules synaptiques, elles, ont toujours besoin de carburant. La faute à une sorte de petite pompe "cachée" qui est notamment en charge de pousser les protons hors de la vésicule. Chargée de pousser les protons hors de la vésicule et d'aspirer ainsi les neurotransmetteurs elle ne semble jamais se reposer et a donc besoin d'un flux constant d'énergie. En fait, cette pompe "cachée" est responsable de la moitié de la consommation métabolique de la synapse au repos.

Selon les chercheurs, cela s'explique par le fait que cette pompe a tendance à avoir des fuites. Ainsi, les vésicules synaptiques déversent constamment des protons via leurs pompes, même si elles sont déjà pleines de neurotransmetteurs et si le neurone est inactif.

Étant donné le grand nombre de synapses dans le cerveau humain et la présence de centaines de vésicules synaptiques à chacune de ces terminaisons nerveuses, ce coût métabolique caché, qui consiste à conserver les synapses dans un état de "disponibilité", se fait au prix d'une importante dépense d'énergie présynaptique et de carburant, ce qui contribue probablement de manière significative aux exigences métaboliques du cerveau et à sa vulnérabilité métabolique", concluent les auteurs.

Des recherches supplémentaires sont nécessaires pour déterminer comment les différents types de neurones peuvent être affectés par des charges métaboliques aussi élevées, car ils ne réagissent pas tous de la même manière.

Certains neurones du cerveau, par exemple, peuvent être plus vulnérables à la perte d'énergie, et comprendre pourquoi pourrait nous permettre de préserver ces messagers, même lorsqu'ils sont privés d'oxygène ou de sucre.

"Ces résultats nous aident à mieux comprendre pourquoi le cerveau humain est si vulnérable à l'interruption ou à l'affaiblissement de son approvisionnement en carburant", explique le biochimiste Timothy Ryan, de la clinique Weill Cornell Medicine à New York.

"Si nous avions un moyen de diminuer en toute sécurité cette fuite d'énergie et donc de ralentir le métabolisme cérébral, cela pourrait avoir un impact clinique très important." 

Auteur: Internet

Info: Science Advances, 3 déc 2021

[ cervelle énergivore ]

 

Commentaires: 0

Ajouté à la BD par miguel

métaphysique

Les idées très développées de Bohm sur la globalité sont les plus étonnantes de toutes. Parce que tout dans le cosmos est fait du tissu holographique sans couture de l'ordre implicite, il pense qu'il est aussi insensé de considérer l'univers comme composé de "parties" que de considérer les différents geysers d'une fontaine comme séparés de l'eau dont ils jaillissent. Un électron n'est pas une "particule élémentaire". "C'est juste un nom donné à un certain aspect de l'holomouvement. Diviser la réalité en parties et ensuite les nommer est toujours arbitraire, une convention, parce que les particules subatomiques, et tout le reste de l'univers, ne sont pas plus séparés les uns des autres que les différents motifs d'un tapis ouvragé. C'est une suggestion profonde. Dans sa théorie générale de la relativité, Einstein stupéfia le monde en affirmant que l'espace et le temps ne sont pas des entités distinctes, mais sont liés de manière fluide et font partie d'un ensemble plus vaste qu'il a appelé le continuum espace-temps. Bohm pousse cette idée un pas de géant plus loin. Il affirme que tout dans l'univers fait partie d'un continuum. Malgré l'apparente séparation des choses au plan analytique, tout est une extension sans faille de tout le reste, et en fin de compte, même les ordres implicite et explicite se fondent l'un dans l'autre. Prenez un moment pour considérer ceci. Regardez votre main. Maintenant, regardez la lumière qui s'écoule de la lampe à côté de vous. Et regardez le chien qui se repose à vos pieds. Vous n'êtes pas simplement faits des mêmes choses. Vous êtes la même chose. Une seule chose. Ininterrompue. Une chose énorme qui a déployé ses innombrables bras et appendices dans tous les objets apparents, atomes, océans agités et étoiles scintillantes du cosmos. Bohm prévient que cela ne signifie pas que l'univers soit une masse géante indifférenciée. Les choses peuvent faire partie d'un tout indivisible tout en possédant leurs propres qualités spécifiques. Pour illustrer ce qu'il veut dire, il évoque les petits tourbillons qui se forment souvent dans une rivière. À première vue, ces tourbillons semblent être des choses distinctes et possèdent de nombreuses caractéristiques individuelles telles que la taille, la vitesse et la direction de rotation, etc. Mais un examen attentif révèle qu'il est impossible de déterminer où un tourbillon donné se termine et où la rivière commence. Ainsi, Bohm ne suggère pas que les différences entre les "choses" soient dénuées de sens. Il veut simplement que nous soyons constamment conscients que la division des divers aspects de l'holo-mouvement en "parties" est toujours une abstraction, manière de faire ressortir ces aspects dans notre perception via nos manières de voir ou façons de penser. Pour tenter de corriger cela, au lieu d'appeler les différents aspects de l'holo mouvement "choses", il préfère les nommer "sous-totalités relativement indépendantes". 

En effet, Bohm pense que notre tendance quasi universelle à fragmenter le monde et à ignorer l'interconnexion dynamique de toutes les choses est responsable d'un grand nombre de nos problèmes, non seulement en science mais aussi dans nos vies et notre société. Par exemple, nous croyons que nous pouvons extraire les parties précieuses de la terre sans affecter l'ensemble. Nous croyons qu'il est possible de traiter certaines parties de notre corps sans se préoccuper de l'ensemble. Nous pensons qu'il est possible de traiter divers problèmes de nos communautés, tels que la criminalité, la pauvreté et la toxicomanie, sans se préoccuper des problèmes de notre société dans son ensemble, et ainsi de suite. Dans ses écrits, Bohm soutient avec passion que notre façon actuelle de fragmenter le monde en parties non seulement ne fonctionne pas, mais pourrait même conduire à notre extinction.

Auteur: Talbot Michael Coleman

Info: The Holographic Universe. L'intégralité indivise de toutes les choses

[ source indiscriminée ]

 

Commentaires: 0

Ajouté à la BD par miguel

traitement automatique du langage

- C'est quoi un algorithme de représentation ?

- Il s'agit d'un ensemble de règles ou de procédures utilisées pour transformer des données ou des informations d'une forme vers une autre. L'objectif d'un algorithme de représentation est de convertir des données complexes ou non structurées en une représentation plus facile à gérer ou plus utile, souvent dans un format qui peut être facilement traité par une machine ou analysé par des humains.

Les algorithmes de représentation sont couramment utilisés dans divers domaines de l'informatique, notamment le traitement du langage naturel (TAL), la vision par ordinateur et l'apprentissage automatique. Par exemple, dans le traitement du langage naturel, un algorithme de représentation peut être utilisé pour transformer des données textuelles en un format numérique qui peut être utilisé pour des tâches d'apprentissage automatique telles que l'analyse des sentiments ou la recherche d'informations. Dans le domaine de la vision artificielle, les algorithmes de représentation peuvent être utilisés pour extraire des caractéristiques d'images ou de données vidéo, qui peuvent ensuite être utilisées pour des tâches telles que la reconnaissance d'objets ou la détection de mouvements.

- Tu as écrit "Par exemple, dans le traitement du langage naturel, un algorithme de représentation peut être utilisé pour transformer des données textuelles en un format numérique qui peut être utilisé pour des tâches d'apprentissage automatique telles que l'analyse des sentiments". Peux-tu élaborer un peu plus ?

- Bien sûr. L'analyse des sentiments, également connue sous le nom d'exploration d'opinion (opinion mining), est une application courante du traitement du langage naturel qui consiste à analyser un texte pour déterminer l'attitude ou les sentiments de l'auteur à l'égard d'un sujet particulier. Dans l'analyse des sentiments, un algorithme de représentation est utilisé pour transformer les données textuelles en un format numérique qui peut être facilement traité par un algorithme d'apprentissage automatique.

Une approche courante de l'analyse des sentiments consiste à utiliser un panier-modèle-de-mots, qui représente un document sous forme d'une collection de termes individuels, sans tenir compte de leur ordre d'apparition. Chaque item se voit attribuer un poids correspondant à son importance dans le document, généralement en fonction de sa fréquence d'apparition et de sa pertinence par rapport à la tâche à accomplir. La représentation numérique du document qui en résulte peut ensuite être utilisée comme entrée d'un modèle d'apprentissage automatique, tel qu'un classificateur, qui est entraîné à prédire le contenu- ressenti-sentiment-caractère de nouveaux documents inédits.

Prenons l'exemple de la phrase suivante : "J'aime le film "La rédemption de Shawshank"". Un algorithme de représentation par panier-modèle-de-mots pourrait représenter cette phrase sous la forme d'un vecteur de nombres, où chaque élément correspond à un mot particulier de la phrase, et la valeur de chaque élément indique la pertinence ou l'importance de ce mot pour le sentiment de la phrase. Dans ce cas, le vecteur pourrait ressembler à ceci : 

[0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]

Ici, le deuxième élément a une valeur de 1 parce que le mot "amour" est très pertinent pour le sentiment de la phrase. Les autres éléments ont tous une valeur de 0 car les autres mots de la phrase ne sont pas particulièrement pertinents pour le feeling de la phrase.

Une fois que la représentation numérique du document est générée, elle peut être intégrée à un algorithme d'apprentissage automatique spécialement formé sur un ensemble de documents dont les étiquettes de sentiment sont connues  (par exemple, positives, négatives ou neutres). L'algorithme d'apprentissage automatique peut alors apprendre à associer certains modèles numériques dans les données d'entrée avec  des étiquettes de sentiment particulières, et utiliser cette connaissance pour prédire le sentiment de nouveaux documents non vus.

Auteur: chatGPT4

Info: 3 mai 2023

 

Commentaires: 0

Ajouté à la BD par miguel

corps-esprit

Vous voulez être plus efficace au travail ? Prenez exemple sur les musiciens de jazz

Vous voulez être plus efficace lorsque vous travaillez ? Les musiciens de jazz pourraient avoir des choses à vous apprendre. Une étude a montré que ces derniers étaient capables d'atteindre un état de transe : le " flux ", durant lequel ils sont entièrement dévolus à leur tâche et plus créatifs.

Ce travail de recherche, publié dans la revue Neuropsychologia, porte sur ce que l'on appelle le " flux " (" flow ", en anglais). Un terme qui désigne un état de concentration absolu durant lequel le corps et l'esprit sont entièrement absorbés par une seule et même tâche. Le psychologue américano-hongrois Mihály Csíkszentmihályi a été le premier à s'intéresser à ce sujet dans les années 1970, au cours de recherches sur le processus créatif.

​​Depuis, les recherches en psychologie ont démontré que l'expérience du flux peut accroître les performances physiques et mentales. N'importe qui peut expérimenter des moments de flux durant son temps libre ou au travail. Mais les athlètes et les artistes sont plus susceptibles d'être fréquemment plongés dans cet état psychologique.

C'est pourquoi des chercheurs affiliés à l'université Drexel (États-Unis) ont recruté une trentaine de guitaristes de jazz pour comprendre les processus cérébraux clés associés au flux. Ils étaient plus ou moins expérimentés, en fonction du nombre de représentations publiques qu'ils avaient données. 

Une affaire d'expérience

Les scientifiques ont placé des électrodes sur leur tête pour enregistrer leurs ondes cérébrales pendant qu'ils improvisaient sur des séquences d'accords et des rythmes qui leur avaient été fournis. Par ailleurs, les guitaristes devaient évaluer le degré de flux qu'ils ont ressenti pendant qu'ils jouaient de la guitare. Des experts ont également écouté les morceaux que les participants avaient créés pour déterminer dans quelle mesure ces derniers avaient fait preuve de créativité.

Il s'avère que les performances jugées les plus créatives sont celles durant lesquelles les guitaristes ont dit être dans un état de flux. Les musiciens les plus aguerris avaient davantage tendance à expérimenter des moments de flux pendant qu'ils jouaient leur instrument que les novices, ce qui laisse penser que l'expérience est une condition préalable pour accéder à un état de flux. 

D'un point de vue cérébral, les chercheurs ont constaté que les musiciens expérimentés qui ont vécu des instants de flux pendant qu'ils jouaient de la guitare présentaient une activité réduite dans les parties de leur lobe frontal, connues pour être impliquées dans les fonctions exécutives. À l'inverse, les aires cérébrales impliquées dans l'audition et la vision étaient davantage sollicitées, ce qui est logique étant donné que les guitaristes improvisaient tout en lisant des suites d'accords et en écoutant des rythmes musicaux. 

Le " flux ", un état de transe ?

Ces découvertes montrent à quel point le cerveau est dans un état mental différent de l'éveil ordinaire quand on fait l'expérience du flux. Cela prouve que " le flux créatif correspond à un traitement optimisé d'un domaine spécifique, rendu possible par une pratique intensive associée à un contrôle cognitif réduit ", comme l'écrivent les chercheurs dans leur étude, que le média The Conversation a relayée.

Ce travail de recherche approfondit notre compréhension des mécanismes cérébraux propres au flux. Il montre que cet état demande une certaine maîtrise technique. Lorsque l'on est plongé dans le flux, les choses semblent se dérouler avec facilité. On a l'impression de maîtriser totalement ce que l'on fait. Ce sentiment de maîtrise est d'ailleurs ce qui rend les moments de flux si agréables. 

​​​​​​​Pour en faire l'expérience régulièrement, il faut s'évertuer à devenir meilleur dans ce que l'on fait en se fixant, par exemple, des défis stimulants à relever. Mais attention à ce qu'ils ne soient pas irréalistes. Sinon, le stress se substituera au flux.

Auteur: Internet

Info: https://www.futura-sciences.com/ 24 avril 2024

[ concentration ] [ absorption ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

conjecture scientifique

L’Univers pourrait être dominé par des tachyons, des particules se déplaçant plus vite que la lumière

 (Photo : Une délicate sphère de gaz créée par une onde de souffle de supernova à 160 000 années-lumière de la Terre.)

Dans un article préliminaire récent, deux physiciens avancent une proposition qui pourrait révolutionner notre compréhension de l’Univers. Leur théorie audacieuse suggère que notre cosmos pourrait être gouverné par des particules hypothétiques appelées tachyons qui se déplacent toujours plus vite que la lumière.

L’hypothèse des tachyons

Dans le monde fascinant de la physique théorique où les frontières de la connaissance sont sans cesse repoussées, la quête pour comprendre les mystères de l’Univers est incessante. Récemment, deux physiciens ont par exemple fait une proposition audacieuse qui pourrait potentiellement transformer notre vision fondamentale de l’Univers : l’hypothèse des tachyons. Selon la théorie, il s’agirait de particules hypothétiques qui se déplacent toujours plus vite que la lumière.

Bien que leur existence soit largement contestée et contredite par les principes de la relativité restreinte, qui dit qu’aucune particule dotée de masse ne peut voyager à une vitesse supérieure à celle de la lumière dans le vide, les tachyons continuent de susciter l’intérêt des chercheurs en raison de leur potentiel à repousser les frontières de notre compréhension.

Comment leur présence pourrait-elle changer le monde ?

Les chercheurs avancent plus précisément l’hypothèse audacieuse que les tachyons pourraient jouer un rôle fondamental dans notre compréhension de la composition de l’Univers. Dans ce modèle, ces particules pourraient en effet être la clé pour expliquer deux phénomènes mystérieux : la matière noire et l’énergie noire. La première est une substance invisible qui compose la majorité de la masse de l’Univers observable, mais dont la nature exacte reste largement inconnue. L’énergie noire est quant à elle responsable de l’expansion accélérée de l’univers. Plus précisément, les chercheurs suggèrent que les tachyons pourraient être la véritable identité de la matière noire.

Concernant l’énergie noire, rappelons que les astronomes peuvent mesurer la luminosité intrinsèque des supernovae de type Ia, ce qui leur permet de déterminer leur distance par rapport à la Terre. En comparant cette luminosité apparente à la luminosité intrinsèque attendue d’une supernova de type Ia standard, ils peuvent calculer la distance de la supernova et ainsi estimer la distance de l’objet hôte (généralement une galaxie).

En combinant les mesures de distance de nombreuses supernovae de ce type à différentes distances, les astronomes peuvent alors tracer la relation entre la distance et le taux d’expansion de l’Univers. Dans le cadre de cette étude sur les tachyons, les chercheurs ont appliqué leur modèle cosmologique alternatif aux données observées sur ces supernovae. Il s’est alors avéré que ce dernier était tout aussi cohérent avec ces observations.

En intégrant les tachyons dans leur modèle, les physiciens suggèrent que ces particules pourraient ainsi fournir une explication unifiée à ces deux phénomènes cosmologiques complexes.

Quelles sont les limites de cette théorie ?

Malgré son potentiel révolutionnaire, la théorie des tachyons est confrontée à de nombreuses limites. Tout d’abord, leur existence même est hautement improbable selon les connaissances actuelles de la physique. En effet, la notion de voyager plus vite que la lumière soulève des questions fondamentales sur la causalité et les principes de la relativité. De plus, bien que ce modèle cosmologique puisse expliquer certaines observations, il nécessite encore des tests expérimentaux rigoureux pour être validé.

En conclusion, l’étude des tachyons représente une exploration audacieuse des limites de notre compréhension de l’Univers. Cependant, bien que cette théorie ouvre de nouvelles perspectives fascinantes, elle devra être soumise à un examen minutieux et à des tests rigoureux pour être pleinement acceptée par la communauté scientifique.

Les recherches de l’équipe ont été publiées dans la base de données pré-imprimée arXiv en mars.



 

Auteur: Internet

Info: https://sciencepost.fr/ - Brice Louvet, expert espace et sciences18 avril 2024

[ spéculations ] [ monde subatomique ] [ vitesse supraluminique ] [ effet Tcherenkov ] [ superluminique ]

 

Commentaires: 0

Ajouté à la BD par miguel

sciences

Mu: une constante fondamentale qui reste constante.
L'idée que les constantes fondamentales ne le soient pas réellement et dépendent de l'espace et du temps perturbe depuis longtemps l'esprit des physiciens. Mais, en observant la façon dont une galaxie lointaine absorbe la lumière d'un quasar, des chercheurs australiens viennent de déterminer une nouvelle limite sur l'évolution de l'une d'entre elles, Mu (µ), ratio entre les masses de l'électron et du proton, en fonction du temps. Leur résultat, qui est 10 fois plus précis que les mesures précédentes, confirme la compréhension scientifique actuelle de la physique.
Les scientifiques ont utilisé la lumière d'un quasar pour montrer qu'une des constantes fondamentales de la physique est très probablement restée constante à travers l'histoire de l'univers
Les constantes principales sont très finement ajustées à notre existence (ou vice-versa !) ; si l'interaction forte était ne serait-ce qu'un pour cent plus intense qu'elle ne l'est aujourd'hui, par exemple, le carbone ne pourrait pas être produit dans les étoiles, et nous ne serions pas là pour en parler. C'est une des raisons pour lesquelles de nombreux physiciens sont désireux de vérifier si certaines constantes fondamentales ont varié au cours de l'histoire de l'univers. L'une d'elles est µ, le ratio entre la masse de l'électron et celle du proton.
Habituellement, cette constante peut être calculée en analysant les données d'un télescope terrestre pointé sur un quasar, le noyau compact mais très lumineux d'une jeune galaxie, sorte de "phare" dans l'espace profond. Le spectre de la lumière des quasars couvre un large intervalle de longueurs d'onde, mais certaines d'entre elles peuvent être absorbées par des molécules situées au sein de galaxies plus anciennes lors du trajet de la lumière à travers le cosmos. Ces longueurs d'onde, apparaissant comme des raies d'absorption, correspondent à des molécules "excitées" à des niveaux plus élevés d'énergie et sont régies par µ. Comme la lumière des quasars peut mettre des milliards d'années pour parvenir sur Terre, la valeur de µ mesurée à partir de ces sources éloignées peut être comparée à sa valeur mesurée dans une expérience de laboratoire. On détermine ainsi si sa valeur s'est modifiée au cours du temps.
Victor Flambaum et Michael Kozlov, de l'université de Nouvelle Galle du Sud en Australie, ont rendu la technique plus précise en y incorporant l'analyse d'un "spectre d'inversion", produit quand les atomes des molécules absorbent la lumière et atteignent un niveau d'énergie plus élevé par effet tunnel. Comme la probabilité de l'effet tunnel dépend plus étroitement de µ que les raies d'absorption dans le spectre habituel, des variations de cette constante peuvent en être déduites plus précisément.
Flambaum et Kozlov ont utilisées des données existantes du radiotélescope d'Effelsberg en Allemagne concernant la lumière issue d'un quasar et traversant la galaxie B0218+357 à 6.5 milliards d'années-lumière de la terre, et ont analysé les deux types de spectres pour des molécules d'ammoniaque et d'autres comme celles d'oxyde de carbone. Ils ont ensuite comparé les spectres à ceux d'expériences actuelles de laboratoire et ont constaté que µ ne pouvait pas avoir diminué de plus de 4e-16, ni ne pouvait pas avoir augmenté de plus de 2e-16 par an ce qui représente une évaluation dix fois plus précise que les meilleures estimations antérieures.
L'année dernière un groupe, conduit par Wim Ubachs de l'université d'Amsterdam, avait trouvé, en utilisant la technique plus ancienne, que µ avait pu diminuer avec le temps. Si cela s'était confirmé, cela aurait signifié que les théories les plus fondamentales de la physique, comme celle de la relativité, auraient dû être reconsidérées. Flambaum a indiqué, cependant, que ses propres résultats, plus précis, prouvaient qu'il était peu probable que µ ait varié au cours du temps, et qu'ainsi notre compréhension actuelle de la physique était bonne. Le scientifique a ajouté que si plus de données pouvaient être rassemblées, sa technique d'analyse devrait permettre aux théoriciens de déterminer encore plus précisément les non-variations de µ.

Auteur: Internet

Info:

[ constantes ]

 

Commentaires: 0