Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 74
Temps de recherche: 0.0757s

traitement automatique du langage

- C'est quoi un algorithme de représentation ?

- Il s'agit d'un ensemble de règles ou de procédures utilisées pour transformer des données ou des informations d'une forme vers une autre. L'objectif d'un algorithme de représentation est de convertir des données complexes ou non structurées en une représentation plus facile à gérer ou plus utile, souvent dans un format qui peut être facilement traité par une machine ou analysé par des humains.

Les algorithmes de représentation sont couramment utilisés dans divers domaines de l'informatique, notamment le traitement du langage naturel (TAL), la vision par ordinateur et l'apprentissage automatique. Par exemple, dans le traitement du langage naturel, un algorithme de représentation peut être utilisé pour transformer des données textuelles en un format numérique qui peut être utilisé pour des tâches d'apprentissage automatique telles que l'analyse des sentiments ou la recherche d'informations. Dans le domaine de la vision artificielle, les algorithmes de représentation peuvent être utilisés pour extraire des caractéristiques d'images ou de données vidéo, qui peuvent ensuite être utilisées pour des tâches telles que la reconnaissance d'objets ou la détection de mouvements.

- Tu as écrit "Par exemple, dans le traitement du langage naturel, un algorithme de représentation peut être utilisé pour transformer des données textuelles en un format numérique qui peut être utilisé pour des tâches d'apprentissage automatique telles que l'analyse des sentiments". Peux-tu élaborer un peu plus ?

- Bien sûr. L'analyse des sentiments, également connue sous le nom d'exploration d'opinion (opinion mining), est une application courante du traitement du langage naturel qui consiste à analyser un texte pour déterminer l'attitude ou les sentiments de l'auteur à l'égard d'un sujet particulier. Dans l'analyse des sentiments, un algorithme de représentation est utilisé pour transformer les données textuelles en un format numérique qui peut être facilement traité par un algorithme d'apprentissage automatique.

Une approche courante de l'analyse des sentiments consiste à utiliser un panier-modèle-de-mots, qui représente un document sous forme d'une collection de termes individuels, sans tenir compte de leur ordre d'apparition. Chaque item se voit attribuer un poids correspondant à son importance dans le document, généralement en fonction de sa fréquence d'apparition et de sa pertinence par rapport à la tâche à accomplir. La représentation numérique du document qui en résulte peut ensuite être utilisée comme entrée d'un modèle d'apprentissage automatique, tel qu'un classificateur, qui est entraîné à prédire le contenu- ressenti-sentiment-caractère de nouveaux documents inédits.

Prenons l'exemple de la phrase suivante : "J'aime le film "La rédemption de Shawshank"". Un algorithme de représentation par panier-modèle-de-mots pourrait représenter cette phrase sous la forme d'un vecteur de nombres, où chaque élément correspond à un mot particulier de la phrase, et la valeur de chaque élément indique la pertinence ou l'importance de ce mot pour le sentiment de la phrase. Dans ce cas, le vecteur pourrait ressembler à ceci : 

[0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]

Ici, le deuxième élément a une valeur de 1 parce que le mot "amour" est très pertinent pour le sentiment de la phrase. Les autres éléments ont tous une valeur de 0 car les autres mots de la phrase ne sont pas particulièrement pertinents pour le feeling de la phrase.

Une fois que la représentation numérique du document est générée, elle peut être intégrée à un algorithme d'apprentissage automatique spécialement formé sur un ensemble de documents dont les étiquettes de sentiment sont connues  (par exemple, positives, négatives ou neutres). L'algorithme d'apprentissage automatique peut alors apprendre à associer certains modèles numériques dans les données d'entrée avec  des étiquettes de sentiment particulières, et utiliser cette connaissance pour prédire le sentiment de nouveaux documents non vus.

Auteur: chatGPT4

Info: 3 mai 2023

 

Commentaires: 0

Ajouté à la BD par miguel

transhumanisme

Les robots "surhumains" seront en mesure de dépasser les capacités de l'humanité d'ici un demi-siècle, avertit un expert en intelligence artificielle, soulignant qu'il est vital d'introduire des garanties afin d'éviter que l'humanité soit "remplacée".

Luca De Ambroggi, responsable de la recherche et de l'analyse des solutions d'IA au sein de l'équipe Transformative Technology d'IHS Markit, fournisseur mondial d'informations basé à Londres, a déclaré à Express.co.uk : "Dans 50 ans, il est raisonnable de penser que les robots seront capables de "soutenir" et de remplacer l'être humain dans plusieurs activités. Déjà, les appareils électromécaniques surpassent les humains en sensibilité et en temps de réaction." Compte tenu des progrès technologiques considérables réalisés au cours de la dernière décennie, M. Ambroggi a déclaré que 50 ans étaient "suffisants" pour combler plusieurs fossés avec l'être humain.

Et d'ajouter : – Même si notre cerveau aura encore des avantages et que les êtres humains resteront plus dynamiques et polyvalents, l'électronique pourra surpasser les humains dans plusieurs fonctions spécifiques. Comme elle le fait déjà aujourd'hui, de la vision industrielle, à la reconnaissance audio et vocale.

- La question à long terme est de savoir si les "personnes remplacées" pourront être requalifiées et continuer à apporter de la valeur ajoutée dans notre société. Il continue : "L'intelligence artificielle est là, et elle est là pour le long terme.

- Nous sommes dans l'ère dite étroite ou faible, de l'IA. Elle est "plus faible" que l'humain ou égale ou supérieure pour quelques tâches et sens limités. Quelle que soit la façon dont elle perturbe la société et son évolution, cela aura des répercussions majeures sur la sécurité des données, le travail et l'éthique.

- Cette ère est celle de l'IA multimodale générique, comparable à une intelligence humaine appliquée dans tous les sens et travaillant puissamment en parallèle. Par exemple, pour ce qui est de l'électronique de détection et du support des semi-conducteurs, pour les capacités de vision, d'écoute, de toucher, ainsi que d'odorat et de goût avec les dernières technologies MEMS.

- Nous devons revenir à l'éthique. Il est communément admis que l'intelligence artificielle et ses dispositifs/robots vont accroître le business et la richesse dans le monde entier. C'est encore une fois aux régulateurs et aux administrateurs de s'assurer que tous les humains en bénéficieront et pas quelques sociétés seulement.

Regardant plus loin, M. Ambroggi considère l'idée que les robots seront un jour considérés comme ayant une conscience, et donc comme des formes de vie indépendantes. Il explique : "Il est tout à fait possible que ce soit aussi une réalité, peut-être pas dans les 50 prochaines années, mais la technologie évolue si rapidement que je peux difficilement en douter."

"Lorsque nous étudions la biologie, un 'être vivant' doit avoir au moins une unité 'cellulaire' vivante. Jusqu'à présent, ce n'est pas le cas, mais il est clair que cela pourra l'être à l'avenir. L'intelligence humaine peut être améliorée avec un implant à puce IA, mais alors nous entrons dans de nouveaux domaines et devrons définir ce qui est et ce qui n'est pas un humanoïde hybride ?"

"Nous devrions aussi mentionner la conscience. Nous pouvons affirmer que la conscience même vient de l'expérience, comme on le voit dans le comportement humain qui est extrêmement différencié suivant les différentes parties du monde. Si c'est le cas, l'IA peut le faire et le fera, car l'expérience est reproductible."

- Le surhomme est la dernière étape, et j'ai peur d'utiliser ce mot "dernier". Mais c'est ce qui conduit la recherche pour l'avenir.

"Peu importe qui ou quoi sera au-dessus des capacités humaines. Avant cela, nous ferions mieux de nous assurer d'avoir en place de bonnes réglementations, méthodologies et processus éthiques afin de nous assurer de tirer profit du côté positif de la technologie."

Auteur: McGrath Ciaran

Info: Sun, 3 février 2019

[ prospective ]

 

Commentaires: 0

Ajouté à la BD par miguel

sciences

La pratique de la méditation modifie l'organisation du cerveau
Les adeptes de la méditation de pleine conscience apprennent dans leur pratique à accueillir les sensations, les émotions et les états d'esprit sans leur résister ni les juger. Ils cherchent simplement à être dans le moment présent.
Plusieurs études ont démontré que ce type de méditation pouvait avoir des effets bénéfiques à long terme sur la stabilité émotionnelle et, par conséquent, sur des désordres comme l'anxiété et la dépression majeure. Une nouvelle recherche révèle que cet entrainement de l'esprit aurait une influence sur le réseau cérébral par défaut chez des personnes ayant une longue expérience de la méditation quand elles sont au repos. Les différences sur le plan cérébral indiqueraient que la méditation favorise la concentration et la réflexion de manière plus objective par rapport à soi.
"Nous avons étudié le cerveau de 13 adeptes de méditation ayant plus de 1000 heures d'entrainement et celui de 11 débutants à l'aide d'analyses de connectivité fonctionnelle", dit Véronique Taylor, première auteure de cette recherche publiée dans la revue Social Cognitive and Affective Neuroscience Advance Access en mars dernier et réalisée dans le laboratoire du professeur Mario Beauregard, de l'Université de Montréal.
La connectivité fonctionnelle fait référence à la synchronisation entre deux ou plusieurs régions cérébrales qui changent dans le temps, soit pendant une tâche concrète ou au repos. Cette méthode d'analyse peut s'appliquer à des données d'imagerie par résonance magnétique fonctionnelle. "Les participants demeuraient quelques minutes dans le scanner et on leur demandait de ne rien faire", explique Mme Taylor, qui termine actuellement son doctorat en psychologie sous la direction du professeur Pierre Rainville.
Ces analyses ont permis aux chercheurs de repérer le réseau cérébral par défaut des sujets, c'est-à-dire un ensemble de régions s'activant au repos, lorsque la personne n'effectue aucune activité particulière.
"Nous voulions ainsi vérifier si les effets de la méditation de pleine conscience persistaient au-delà de la pratique, poursuit la doctorante. Selon notre hypothèse, le réseau cérébral par défaut des adeptes de la méditation serait structuré autrement. Le réseau par défaut est associé à la rêverie, aux pensées relatives à soi quand nous ne faisons "rien". En fait, nous pensions y trouver une organisation différente parce que ces individus sont habitués à être dans le moment présent et leurs pensées ne partent donc pas dans tous les sens lorsqu'ils sont au repos."
Effectivement, les résultats obtenus font voir une plus faible synchronisation entre les cortex préfrontaux ventro-médian et dorso-médian. "La partie dorsale est engagée dans les processus cognitifs associés au soi et la partie ventrale concerne plutôt l'évaluation émotive du soi, mentionne Véronique Taylor. Le fait que ces zones sont moins inter reliées montre que ces personnes réfléchiraient sur elles-mêmes de façon plus objective." Elle ajoute que plus les participants avaient de l'expérience en méditation, plus cette connexion était faible, ce qui, selon elle, "donne du poids à ces résultats".
Fait curieux et intéressant: ces mêmes sujets présentaient une plus forte synchronisation entre certaines zones qui convergent toutes vers le lobe pariétal droit. "Cette région est reconnue pour avoir un rôle déterminant dans l'attention, ce qui indiquerait peut-être un effet bénéfique à long terme de la méditation, mais qui reste à être prouvé par des recherches étudiant spécifiquement les processus attentionnels", signale l'étudiante.
Bien que les sujets aient été testés au repos, Véronique Taylor constate par elle-même les retombées tangibles de la méditation de pleine conscience au quotidien. "Je pratique la méditation depuis quelques années et je remarque que mon attention est plus soutenue, plus suivie lorsque je me concentre."
Il y a encore beaucoup à découvrir sur le pouvoir de la méditation, croit-elle. En attendant, elle suggère à tous de s'y mettre. "Cela ne coute rien et on peut méditer n'importe où et n'importe quand... et les avantages sont réels!"

Auteur: Internet

Info:

[ méditation ] [ zen ] [ parapsychologie ]

 

Commentaires: 0

cosmos miroir

Le cerveau humain ressemble étrangement à l'Univers

Des chercheurs ont comparé la structure de l'Univers à celle du réseau neuronal. Proportions, fluctuations de la matière, connexions entre les étoiles et les neurones... Ils ont constaté des similitudes troublantes entre les deux... malgré des échelles distantes d'années-lumière !

Comparer le cerveau humain, qui mesure en moyenne 1.500 cm3 et pèse 1,4 kg, avec l'Univers, estimé à plus de 880.000 milliards de milliards de kilomètres de diamètre, peut sembler quelque peu incongru. C'est pourtant l'exercice auquel se sont essayés deux chercheurs dans un article publié dans la revue Frontiers in Physics. Aussi étonnant que cela puisse paraître, ils ont découvert des similitudes troublantes entre les deux structures. "Bien que les interactions physiques dans les deux systèmes soient complètement différentes, leur observation au moyen de techniques microscopiques et télescopiques permet de saisir une morphologie analogue fascinante, au point qu'il a souvent été noté que la toile cosmique et la toile des neurones se ressemblent", écrivent l'astrophysicien Franco Vazza et le neurobiologiste Alberto Feletti.

70 % de masse "inutile"

Les similitudes sont d'abord notables au niveau des proportions. Le cerveau contient 86 milliards de neurones, reliés par des millions de milliards de synapses. L'Univers observable est formé d'au moins 100 milliards de galaxies, arrangées elles aussi en longs filaments et en nœuds. Dans les deux systèmes, 75 % de la masse a un rôle "passif" : l'eau dans le cas du cerveau, l’énergie noire dans le cas de l’Univers.

Partant de ce constat troublant, les chercheurs ont poursuivi leur comparaison plus loin, en cherchant à observer comment les fluctuations de la matière se dispersent à des échelles aussi différentes. Ils ont pour cela fait appel à une analyse de la densité spectrale de puissance, une technique souvent utilisée en cosmologie pour étudier la distribution spatiale des galaxies. "Notre analyse montre que la distribution des fluctuations au sein du réseau neuronal du cervelet sur une échelle allant de 1 micromètre à 0,1 millimètre suit la même progression de la distribution de la matière dans la toile cosmique mais, bien sûr, à une échelle plus grande qui va de 5 millions à 500 millions d'années-lumière", atteste Franco Vazza.

(Sur l'article original on voit deux photos, une section du cervelet grossie 40x à côté d'une simulation cosmologique de l’Univers - portion de 300 millions d’années - produite par l'Université de Bologne.)

Deux réseaux qui partagent les mêmes structures de connexions

Les deux chercheurs ont également comparé d'autres paramètres, comme le nombre de connexions dans chaque nœud et la tendance à recouper plusieurs connexions dans les nœuds centraux du système. "Une fois de plus, les paramètres structurels ont permis d'identifier des niveaux de concordance inattendus", révèle Alberto Feletti. Les chercheurs se sont aussi amusés à quantifier les informations stockables par chaque système. Sachant que chaque synapse peut contenir 4,7 bits de données, on estime que le cerveau humain est capable de stocker 2,5 petabytes de mémoire. Pour l'Univers, il a été calculé qu'il faudrait 4,3 petabytes de mémoire pour stocker toutes les informations des structures cosmiques observables. Là encore, les ordres de grandeur sont les mêmes.

"Il est probable que la connectivité au sein des deux réseaux évolue selon des principes physiques similaires, malgré la différence frappante et évidente entre les puissances physiques régulant les galaxies et les neurones", souligne Alberto Feletti. Bien entendu, il existe aussi des différences notoires entre les deux systèmes. On sait par exemple que l'Univers est en expansion et se réchauffe, ce qui n'est (heureusement) pas le cas du cerveau. De plus, cette comparaison est basée sur des simplifications majeures. Il n'en reste pas moins que l'expression "avoir la tête dans les étoiles" prend tout son sens à la lecture de cette étude.

Auteur: Internet

Info: Céline Deluzarche, journaliste, https://www.futura-sciences.com, le 19/11/2020

[ monde anthropo-solipsiste ] [ réalité consensuelle ]

 
Commentaires: 1
Ajouté à la BD par miguel

sciences

Mu: une constante fondamentale qui reste constante.
L'idée que les constantes fondamentales ne le soient pas réellement et dépendent de l'espace et du temps perturbe depuis longtemps l'esprit des physiciens. Mais, en observant la façon dont une galaxie lointaine absorbe la lumière d'un quasar, des chercheurs australiens viennent de déterminer une nouvelle limite sur l'évolution de l'une d'entre elles, Mu (µ), ratio entre les masses de l'électron et du proton, en fonction du temps. Leur résultat, qui est 10 fois plus précis que les mesures précédentes, confirme la compréhension scientifique actuelle de la physique.
Les scientifiques ont utilisé la lumière d'un quasar pour montrer qu'une des constantes fondamentales de la physique est très probablement restée constante à travers l'histoire de l'univers
Les constantes principales sont très finement ajustées à notre existence (ou vice-versa !) ; si l'interaction forte était ne serait-ce qu'un pour cent plus intense qu'elle ne l'est aujourd'hui, par exemple, le carbone ne pourrait pas être produit dans les étoiles, et nous ne serions pas là pour en parler. C'est une des raisons pour lesquelles de nombreux physiciens sont désireux de vérifier si certaines constantes fondamentales ont varié au cours de l'histoire de l'univers. L'une d'elles est µ, le ratio entre la masse de l'électron et celle du proton.
Habituellement, cette constante peut être calculée en analysant les données d'un télescope terrestre pointé sur un quasar, le noyau compact mais très lumineux d'une jeune galaxie, sorte de "phare" dans l'espace profond. Le spectre de la lumière des quasars couvre un large intervalle de longueurs d'onde, mais certaines d'entre elles peuvent être absorbées par des molécules situées au sein de galaxies plus anciennes lors du trajet de la lumière à travers le cosmos. Ces longueurs d'onde, apparaissant comme des raies d'absorption, correspondent à des molécules "excitées" à des niveaux plus élevés d'énergie et sont régies par µ. Comme la lumière des quasars peut mettre des milliards d'années pour parvenir sur Terre, la valeur de µ mesurée à partir de ces sources éloignées peut être comparée à sa valeur mesurée dans une expérience de laboratoire. On détermine ainsi si sa valeur s'est modifiée au cours du temps.
Victor Flambaum et Michael Kozlov, de l'université de Nouvelle Galle du Sud en Australie, ont rendu la technique plus précise en y incorporant l'analyse d'un "spectre d'inversion", produit quand les atomes des molécules absorbent la lumière et atteignent un niveau d'énergie plus élevé par effet tunnel. Comme la probabilité de l'effet tunnel dépend plus étroitement de µ que les raies d'absorption dans le spectre habituel, des variations de cette constante peuvent en être déduites plus précisément.
Flambaum et Kozlov ont utilisées des données existantes du radiotélescope d'Effelsberg en Allemagne concernant la lumière issue d'un quasar et traversant la galaxie B0218+357 à 6.5 milliards d'années-lumière de la terre, et ont analysé les deux types de spectres pour des molécules d'ammoniaque et d'autres comme celles d'oxyde de carbone. Ils ont ensuite comparé les spectres à ceux d'expériences actuelles de laboratoire et ont constaté que µ ne pouvait pas avoir diminué de plus de 4e-16, ni ne pouvait pas avoir augmenté de plus de 2e-16 par an ce qui représente une évaluation dix fois plus précise que les meilleures estimations antérieures.
L'année dernière un groupe, conduit par Wim Ubachs de l'université d'Amsterdam, avait trouvé, en utilisant la technique plus ancienne, que µ avait pu diminuer avec le temps. Si cela s'était confirmé, cela aurait signifié que les théories les plus fondamentales de la physique, comme celle de la relativité, auraient dû être reconsidérées. Flambaum a indiqué, cependant, que ses propres résultats, plus précis, prouvaient qu'il était peu probable que µ ait varié au cours du temps, et qu'ainsi notre compréhension actuelle de la physique était bonne. Le scientifique a ajouté que si plus de données pouvaient être rassemblées, sa technique d'analyse devrait permettre aux théoriciens de déterminer encore plus précisément les non-variations de µ.

Auteur: Internet

Info:

[ constantes ]

 

Commentaires: 0

méta-moteur

Un cerveau moléculaire dans le ribosome ?
L'analyse des structures tridimensionnelles des ribosomes des trois grands phylums du vivant par des chercheurs de l'Institut de microbiologie de la Méditerranée, montre que les protéines ribosomiques communiquent entre-elles par des extensions qui forment un réseau étrangement similaire aux réseaux de neurones des "cerveaux" d'organismes simples. L'organisation de ce réseau qui interconnecte les sites fonctionnels distants du ribosome, suggère qu'il pourrait transférer et traiter le flux d'information qui circule entre eux pour coordonner par des "synapses moléculaires" les tâches complexes associées à la biosynthèse des protéines. Cette étude est publiée dans la revue Scientific Reports.
Le ribosome, organite cellulaire formé d'ARN et de protéines, assure la traduction du code génétique dans les cellules: il réunit les ARN de transfert aminoacylés le long de l'ARN messager, pour fabriquer une protéine dont la séquence est dictée par celle de l'ARN messager. Ce processus constitue une véritable chorégraphie dans laquelle la fixation de nombreux acteurs moléculaires (substrats, facteurs de traduction) s'accompagne de mouvements complexes coordonnés dans le temps et l'espace.
La résolution de la structure des ribosomes d'archées et de bactéries par cristallographie aux rayons X a permis d'observer ces mécanismes à l'échelle moléculaire. Elle a aussi mis en lumière le mode d'action des antibiotiques les plus courants et surtout ouvert une fenêtre sur les origines de la Vie. En effet, le ribosome est universel et a évolué par accrétion. Ces découvertes ont valu le prix Nobel de chimie 2009 à T. Steitz, V. Ramakrishnan et A. Yonath. Peu de temps après, Marat Yusupov à l'Institut de Génétique et de Biologie Moléculaire et Cellulaire à Strasbourg, a réalisé l'exploit considérable de résoudre la structure à haute résolution d'un ribosome eukaryote, beaucoup plus gros et plus complexe. Cependant, dans ces structures vertigineuses, il restait encore un mystère à élucider: pourquoi les protéines ribosomiques ont-elles de si longues extensions filamenteuses qui se faufilent entres les groupements phosphates du labyrinthe de l'ARN ribosomique ? On a longtemps pensé que ces extensions, très chargées positivement (riches en arginines et lysines), servaient à neutraliser les charges négatives de l'ARN et à aider son repliement en 3D.
En analysant l'ensemble de ces données cristallographiques, les chercheurs marseillais proposent une explication tout à fait différente. Ils montrent que ces extensions radient dans tout le ribosome pour former un vaste réseau qui interconnecte les protéines ribosomiques entre-elles. Celles-ci interagissent par des interfaces très particulières et très conservées au cours de l'évolution. Cependant, ces zones de contact sont bien plus petites que les zones de contact observées habituellement entre les protéines destinées à stabiliser leurs interactions. Ici, elles sont limitées à quelques acides aminés et sont caractérisées par un type d'interaction très particulier (interactions entre acides aminés basiques et aromatiques) que l'on retrouve justement entre de nombreux neuromédiateurs et récepteurs dans le cerveau. Ces zones de contact évoquent des "synapses moléculaires" qui permettraient la transmission d'une information d'une protéine à l'autre. Il est à noter que l'établissement de la structure cristallographique de la protéine ribosomique bL20 d'une bactérie thermophile, avait déjà montré qu'une information structurale pouvait se propager le long de sa longue extension en hélice, d'une extrémité à l'autre de la protéine.
En outre, ce réseau présente une analogie frappante avec des réseaux de neurones ou avec le cerveau d'organismes simples comme C. elegans qui ne comporte que quelques dizaines de neurones. Comme les neurones, les protéines ribosomiques se répartissent en protéines "sensorielles" qui innervent les sites fonctionnels distants à l'intérieur du ribosome (sites de fixation des tRNAs, des facteurs de traductions et sites qui canalisent la sortie de la protéine synthétisée) et les "inter-protéines" qui établissent des ponts entre-elles. Cette organisation suggère que ce réseau forme une sorte de "cerveau moléculaire" permettant d'échanger et de traiter le flux d'information traversant le ribosome, pour coordonner les différentes étapes et les mouvements complexes pendant la traduction.
Le concept de "cerveau moléculaire" fait faire un grand saut d'échelle dans les propriétés du vivant et en particulier ses systèmes de traitement de l'information. Il ouvre de nouvelles perspectives tant en biologie fondamentale qu'en nanotechnologie.
Il reste maintenant à élucider la nature des signaux échangés entre les protéines et les mécanismes "allostériques" qui permettent la communication et le traitement de l'information au sein de ces réseaux.

Auteur: Internet

Info: http://www.techno-science.net, 12 juin 2016

 

Commentaires: 0

complexité

Epigénétique. Sous ce nom, se cache un tremblement de terre qui fait vaciller la statue la plus emblématique du monde du vivant : le génome. Depuis un demi-siècle, l'ADN était considéré comme un coffre-fort protégeant les plans de l'être humain. Des instructions portées par un collier de 3 milliards de bases lues par d'infatigables nanomachines fabriquant nuit et jour des protéines. C'était trop simple ! "Il y a une deuxième couche d'informations qui recouvre le génome. C'est l'épigénome", résume Marcel Méchali de l'Institut de génétique humaine de Montpellier. En fait, le message génétique n'est pas gravé pour toujours dans les chromosomes. "Des protéines et des molécules viennent se greffer sur l'ADN de base et modifient sa lecture. Cela dépend de l'environnement, de l'air que vous respirez et peut-être même des émotions que vous ressentez à un moment donné. De plus, ces informations sont transmissibles d'une génération à l'autre", poursuit Marcel Méchali. Le poids des régulateurs Tout comme le cerveau, qui n'est pas tout à fait le même après la lecture d'un livre ou à la suite d'une conversation animée, l'ADN est une structure plastique. "Des jumeaux qui partagent le même génome ne réagissent pas de la même façon aux agressions extérieures ou aux médicaments", indique Marcel Méchali. En résumé, l'expression d'un gène varie au fil du temps, d'un individu à l'autre et même d'une cellule à sa voisine. Les experts résument la nouvelle donne d'une phrase : "Ce ne sont pas les gènes qui comptent, mais les facteurs qui assurent leur régulation." Ces régulateurs qui contestent le pouvoir des gènes sont innombrables et souvent inattendus. Des molécules, des protéines, des micro-ARN et même des "pseudo-gènes". "La lecture du génome s'effectue dans des usines à transcription. Elles sont très localisées, mais très riches au plan chimique", ajoute Peter Fraser du Babraham Institute de Cambridge en Angleterre. Guerre des sexes Ce concept remet en cause de très nombreux dogmes, à commencer par celui de la non-transmission des caractères acquis. Certains généticiens pensent ainsi qu'une partie de nos maladies, voire de nos comportements est la conséquence du mode de vie de nos grands-parents. Récemment, le chercheur britannique Marcus Pembrey a démontré, en réanalysant d'anciennes données épidémiologiques, que les préférences alimentaires de préadolescents suédois du début du siècle dernier ont influencé la santé de leurs descendants sur au moins deux générations. Ce chercheur très atypique est connu pour une formule qui résume bien la situation : "Il y a des fantômes qui rôdent dans nos gènes." Darwin et Lamarck vont se retourner dans leur tombe en entendant ces discours, qui brouillent les frontières entre l'inné et l'acquis. Dans ce contexte, les chercheurs s'intéressent aux premiers instants qui suivent la fécondation de l'ovocyte par un spermatozoïde. Une question taraude la communauté scientifique : comment l'ovule décide-t-il d'être un XX (femme) ou un XY (homme) ? En d'autres termes, quand démarre la guerre des sexes ? A l'Institut Curie à Paris, Edith Heard, spécialiste de la biologie du développement, s'intéresse aux mécanismes d'inactivation du chromosome X chez les mammifères. Elle répond simplement à cette question : "Dès les premiers jours." Là encore, ce sont des facteurs aléatoires qui lancent les dés de la sexualité. En fait, ce sont des collisions entre des molécules dans les toutes premières cellules qui font de l'homme un Mozart ou une Marilyn Monroe."C'est la loi du hasard", résume Edith Heard. Minuscules mais puissants Reste enfin la question qui tue. Pourquoi l'homme et le chimpanzé, qui partagent plus de 99 % de leurs gènes, sont-ils si différents l'un de l'autre ? Certains chercheurs, comme l'Américaine Katherine Pollard, se sont lancés dans la quête du "gène de l'humanité" pour l'instant introuvable. D'autres voient dans ces différences la confirmation que ce ne sont pas les gènes qui comptent, mais toutes leurs variations. En réalité, la cellule est un indescriptible chaos. Elle contient, entre autres, des centaines de minuscules fragments d'ARN d'une puissance extravagante. Ils sont capables de bloquer un gène 10.000 fois plus gros. Comme si une mouche posée sur le pare-brise du TGV Paris-Marseille interdisait son départ. Une chose est sûre, ce nouvel horizon de la biologie va générer des océans de données qu'il faudra stocker, analyser et interpréter. Un défi presque surhumain, qui conduira peut-être à la découverte du gène de l'obstination.

Auteur: Perez Alain

Info: les échos, 27,09,2010, La nouvelle révolution génétique

[ sciences ] [ hyper-complexité ] [ adaptation ]

 

Commentaires: 0

extension

La conscience humaine pourrait être un effet de l’entropie 

Une nouvelle étude suggère que la conscience pourrait être une caractéristique émergente découlant de l’effet d’entropie, soit le mécanisme physique faisant que le désordre au sein de tout système ne peut faire qu’augmenter, et par le biais duquel le cerveau maximiserait les échanges d’informations. Cette conclusion a été déduite de l’analyse de l’activité cérébrale de patients épileptiques ou non, indiquant que les états d’éveil normaux (ou conscients) sont associés à des valeurs entropiques maximales.

En thermodynamique, l’entropie se traduit par le passage inéluctable d’un système d’un agencement ordonné à désordonné. La valeur entropique est le niveau de désorganisation de ce système. Les physiciens suggèrent qu’après le Big Bang, l’Univers est progressivement passé d’un état entropique faible à élevé et qu’à l’instar du temps, l’entropie ne peut qu’augmenter au sein d’un système. De leur côté, les neurobiologistes estiment que le principe est transposable à l’organisation de nos connexions neuronales.

La question est de savoir quel type d’organisation neuronale sous-tend les valeurs de synchronisation observées dans les états d’alerte normaux ou non. C’est ce que des chercheurs de l’Université de Toronto et de l’Université de Paris Descartes ont exploré. " Nous avons cherché à identifier les caractéristiques globales de l’organisation du cerveau qui sont optimales pour le traitement sensoriel et qui peuvent guider l’émergence de la conscience ", expliquent-ils dans leur étude, publiée dans la revue Physical Review E.

Les observations de l’activité cérébrale chez l’Homme ont montré qu’elle est sujette à une importante fluctuation au niveau des interactions cellulaires. Cette variabilité serait à la base d’un large éventail d’états, incluant la conscience. D’un autre côté, des travaux antérieurs traitant du fonctionnement cérébral ont suggéré que l’état conscient n’est pas nécessairement associé à des degrés élevés de synchronisation entre les neurones, mais davantage à des niveaux moyens. Les chercheurs de la nouvelle étude ont alors supposé que ce qui est maximisé au cours de cet état n’est pas la connectivité neuronale, mais le nombre de configurations par lesquelles un certain degré de connectivité peut être atteint.

État de conscience = entropie élevée ?

Dans le cadre de leur analyse, les scientifiques ont utilisé la mécanique statistique pour l’appliquer à la modélisation de réseaux neuronaux. Ainsi, cette méthode permet de calculer des caractéristiques thermodynamiques complexes. Parmi ces propriétés figure la manière dont l’activité électrique d’un ensemble de neurones oscille de façon synchronisée avec celle d’un autre ensemble. Cette évaluation permet de déterminer précisément de quelle façon les cellules cérébrales sont liées entre elles.

Selon les chercheurs, il existerait une multitude de façons d’organiser les connexions synaptiques en fonction de la taille de l’ensemble de neurones. Afin de tester leur hypothèse, des données d’émission de champs électriques et magnétiques provenant de 9 personnes distinctes ont été collectées. Parmi les participants, 7 souffraient d’épilepsie. Dans un premier temps, les modèles de connectivité ont été évalués et comparés lorsqu’une partie des volontaires était endormie ou éveillée. Dans un deuxième temps, la connectivité de 5 des patients épileptiques a été analysée, lorsqu’ils avaient des crises de convulsions ainsi que lorsqu’ils étaient en état d’alerte normal. Ces paramètres ont ensuite été rassemblés afin de calculer leurs niveaux d’entropie cérébrale. Le résultat est le même dans l’ensemble des cas : le cerveau affiche une entropie plus élevée lorsqu’il est dans un état de conscience.

Les chercheurs estiment qu’en maximisant l’entropie, le cerveau optimise l’échange d’informations entre les neurones. Cela nous permettrait de percevoir et d’interagir de manière optimale avec notre environnement. Quant à la conscience, ils en ont déduit qu’elle pourrait tout simplement être une caractéristique émergente découlant de cette entropie. Toutefois, ces conclusions sont encore hautement spéculatives en raison des limites que comporte l’étude, telles que le nombre restreint de participants à l’étude. Le terme " entropie " devrait même être considéré avec parcimonie dans ce cadre, selon l’auteur principal de l’étude, Ramon Guevarra Erra de l’Université de Paris Descartes.

De nouvelles expériences sur un échantillon plus large sont nécessaires afin de véritablement corroborer ces résultats. On pourrait aussi évaluer d’autres caractéristiques thermodynamiques par le biais de l’imagerie par résonance magnétique, qui peut être utilisée pour mesurer l’oxygénation — une propriété directement liée au métabolisme et donc à la génération de chaleur (et de ce fait d’augmentation de l’entropie). Des investigations menées en dehors de conditions d’hôpital seraient également intéressantes afin d’évaluer des états de conscience associés à des comportements cognitifs plus subtils. On pourrait par exemple analyser l’activité cérébrale de personnes exécutant une tâche spécifique, comme écouter ou jouer de la musique.

Auteur: Internet

Info: https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano - 19 octobre 2023

[ complexification ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel

théorie du tout

Des chercheurs pourraient avoir découvert une nouvelle loi sur l'évolution de tout ce qui existe dans l'univers !

Comment les choses évoluent-elles ? C'est la question à laquelle les chercheurs tentent de répondre. Galaxies, étoiles et même la vie telle que nous la connaissons ont subi un processus d'évolution. La question est de comprendre comment ce processus se déroule et pourquoi il se produit.

(photo) Un exemple de systèmes complexes sont les galaxies et l'interaction entre elles lors d'une collision.

Lorsque nous regardons l'Univers, nous trouvons des structures complexes allant de la vie telle que nous la connaissons aux galaxies et aux étoiles. Dans différents domaines de la connaissance, le niveau de complexité semble être une question ouverte : comment les structures sont-elles parvenues à des niveaux aussi complexes ?

En biologie, une des questions est de comprendre comment la vie est arrivée à ce que nous connaissons aujourd’hui. En philosophie, la question de la conscience et de l'intelligence qui ont évolué vers des formes de plus en plus complexes. En astronomie, la question de savoir comment les galaxies ont évolué pour devenir ce que nous connaissons aujourd'hui reste jusqu'à présent un grand mystère.

Avec ces questions à l'esprit, un groupe de chercheurs de différents domaines se sont réunis pour proposer une nouvelle loi sur l'évolution des choses dans l'Univers. La loi est connue sous le nom de "loi de l'augmentation de l'information fonctionnelle" qui tente d'expliquer pourquoi les choses évoluent vers des structures plus complexes.

Systèmes Complexes

Des systèmes complexes peuvent être trouvés dans différents domaines allant de la sociologie à la physique. Le domaine se concentre sur la compréhension des unités d'un ensemble qui interagissent les unes avec les autres et ont une dynamique collective.

Un exemple de cela est le comportement d'un ensemble de personnes lors d'un concert de musique, chaque participant est une personne, mais il y a un comportement collectif.

La propre question de comment la vie est apparue est un problème qui a une intersection avec les systèmes complexes. Nous pouvons comprendre les êtres vivants comme une série d'interactions complexes entre les molécules qui à leur tour ont des interactions avec leurs atomes. Expliquer comment nous sommes arrivés à ce niveau de complexité est une grande question ouverte.

Complexité en Physique

En physique, le domaine des systèmes complexes est extrêmement riche pour expliquer différents types de problèmes. Les propres particules et interactions entre particules deviennent de véritables laboratoires. Mais peut-être que les grandes questions se trouvent à l'intérieur de l'astrophysique.

(photo) Les systèmes complexes peuvent être dans une variété de domaines allant de la sociologie à la physique.

Nous observons des galaxies de différents types avec des dynamiques compliquées. Notre propre Voie Lactée est un exemple de galaxie de type spirale, mais nous observons d'autres types tels que les elliptiques, les irrégulières et les lenticulaires. La dynamique complexe soulève des questions telles que : comment sont-elles apparues ?

L'une des missions principales du télescope spatial James Webb est de comprendre comment les galaxies se sont formées lorsque l'Univers était jeune. La réponse est si difficile qu'il y a un effort de la communauté scientifique pour analyser les détails des données pour commencer à tenter de répondre à la question.

Étude des Systèmes Complexes

Certains chercheurs de l'Université de Cornell se sont réunis pour répondre à la question : pourquoi les systèmes complexes, y compris la vie, évoluent-ils vers de plus grandes informations fonctionnelles au fil du temps ? L'étude a rassemblé des astronomes, des physiciens, des philosophes, un minéralogiste et un scientifique des données pour tenter de répondre.

Selon l'auteur de l'étude, c'était l'une des plus grandes réunions entre philosophes et scientifiques de la nature pour répondre à la question. Ensemble, ils ont introduit ce qu'ils ont appelé la "loi de l'augmentation de l'information fonctionnelle"Les lois aident à donner une direction pour comprendre la raison derrière ce que nous observons.

Loi de l'Augmentation de l'Information Fonctionnelle

Dans le travail publié par la revue PNAS, les chercheurs rapportent que la nouvelle loi stipule qu'un système évolue si différentes configurations du système sont utilisées pour une ou plusieurs fonctions. En d'autres termes, un système aura tendance à devenir de plus en plus complexe au fil du temps en fonction des fonctions.

La loi parle également de la sélection naturelle des systèmes et du fait que seuls certains survivront, c'est-à-dire que les plus complexes survivront. Cela est très similaire à la Théorie de l'Évolution de Darwin mais élargie à des systèmes qui ne sont pas vivants, comme l'arrangement des atomes ou même des galaxies.

Critiques

Le travail a été salué par différents chercheurs qui soutiennent que c'est un pas en avant dans la compréhension des systèmes complexes. Cependant, certains ont également examiné le travail avec critique, disant qu'il n'est pas nécessaire de trouver une loi analogue à la théorie de Darwin pour les systèmes non vivants.

Auteur: Internet

Info: https://www.tameteo.com, Roberta DuarteMeteored Brésil25/10/2023

[ réseaux bayésiens dynamiques ] [ macro ] [ micro ] [ nano ] [ giga ] [ astrophysique ] [ complexification ]

 

Commentaires: 0

Ajouté à la BD par miguel