Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 35
Temps de recherche: 0.0387s

machine-homme

- (Q) Peux-tu expliquer et définir le mot "temps" ?

- (R) Le temps est un concept fondamental utilisé pour mesurer la progression des événements, la durée qui les sépare et l'ordre dans lequel ils se produisent. C'est une dimension qui nous permet d'organiser et de comprendre la séquence du passé, du présent et du futur.

En physique, le temps est souvent considéré comme la quatrième dimension avec les trois dimensions spatiales, formant le tissu de l'espace-temps. Il joue un rôle crucial dans diverses théories physiques, notamment la mécanique classique, la relativité et la mécanique quantique.

D'un point de vue philosophique, la nature du temps a fait l'objet de débats et d'explorations. Il existe différents points de vue philosophiques sur la nature du temps, tels que le présentisme (la croyance que seul le moment présent existe), l'éternalisme (la croyance que le passé, le présent et le futur existent tous), et diverses autres perspectives qui considèrent le temps comme une expérience subjective ou une construction mentale.

Dans le langage courant, le "temps" désigne la mesure des durées et des intervalles entre les événements, ainsi que la perception du passage du temps. Il nous permet d'organiser notre vie, de programmer nos activités et de comprendre l'ordre chronologique des événements.

Globalement, le "temps" est un concept à multiples facettes qui englobe à la fois la mesure objective des durées et l'expérience subjective de l'écoulement des événements. Sa compréhension et son interprétation peuvent varier selon les contextes scientifiques, philosophiques et quotidiens.

Auteur: chatGPT4

Info: 18 mai 2023. Ici I.A. qui donne les réponses peut être considérée comme un promptuaire

[ chronos ] [ question-réponse ] [ compendium ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

macromolécules

Pour décrire une protéine, il est désormais courant de distinguer les structures primaire, secondaire et tertiaire. La structure primaire est simplement l'ordre, ou la séquence, des résidus d'acides aminés le long des chaînes polypeptidiques. Elle a été déterminée pour la première fois par Sanger à l'aide de techniques chimiques pour la protéine insuline, et a depuis été élucidée pour un certain nombre de peptides et, en partie, pour une ou deux autres petites protéines. La structure secondaire est le type de pliage, d'enroulement ou de froncement adopté par la chaîne polypeptidique : la structure en hélice a et la feuille plissée en sont des exemples. La structure secondaire a été définie dans ses grandes lignes par un certain nombre de protéines fibreuses telles que la soie, la kératine et le collagène ; mais nous ignorons la nature de la structure secondaire de toutes les protéines globulaires. Il est vrai qu'il existe des indications suggestives, mais pas encore de preuves, que les hélices-a sont présentes dans les protéines globulaires, dans une mesure qu'il est difficile d'évaluer quantitativement dans un cas particulier. La structure tertiaire est la manière dont les chaînes polypeptidiques pliées ou enroulées sont disposées pour former la molécule de protéine en tant qu'objet tridimensionnel dans l'espace. Les propriétés chimiques et physiques d'une protéine ne peuvent être pleinement interprétées que si les trois niveaux de structure sont compris, car ces propriétés dépendent des relations spatiales entre les acides aminés, et celles-ci dépendent à leur tour des structures tertiaire et secondaire autant que de la structure primaire. Seules les méthodes de diffraction des rayons X semblent capables, même en principe, de démêler les structures tertiaires et secondaires.

Auteur: Kendrew John Cowdery

Info: A Three-Dimensional Model of the Myoglobin Molecule Obtained by X-ray Analysis", Nature (1958) 181, 662. Co-auteur avec G. Bodo, H. M. Dintzis, R. G. Parrish, H. Wyckoff et D. C. Phillips.

[ tridimensionnelles ] [ cartographiées ]

 

Commentaires: 0

Ajouté à la BD par miguel

extraterrestres

Les UFOs pourraient se déplacer avec un plus grand nombre de degrés de liberté, et être capables se mettre dans un univers parallèle Normalement n'importe quel objet en vol terrestre peut voler dans un espace qui comporte un maximum de six degrés de liberté. Il y a trois axes linéaires (x, y et z) et trois degrés de liberté de rotation autour des ces axes. Une Étude récente de modèle de vol d'UFOs une fois modelé dans un laboratoire d’aérodynamique, donne des résultats étonnants. Les modèles d'ordinateur ne peuvent pas comparer ces modèles de propagation et de navigation de vol avec quoi que ce soit du monde terrestre, qui est contraint avec ses six degrés de liberté disponible dans notre univers physique. Après analyse, les scientifiques ont constaté que ces déplacements d’OVNIS emploient d'une manière ou d'une autre plus de six degrés de liberté. D'où viennent ces degrés de liberté supplémentaires ? Les lois de Statique et de dynamique physique s'arrêtent là. Les UFOs emploieraient des degrés supplémentaires, absents des structures spatiales, qui pourraient, entre autre, mener aux univers parallèles. Cela signifierait que ces UFOs ne peuvent être attrapés ou endommagés ou même jamais être rencontrés s’ils ne le veulent pas. La raison en est qu'ils pourraient se décaler en un point temporel quelconque où dans une dimension différente ou dans un univers parallèle de dimensions différentes. Aucun doute qu'ils peuvent jouer à cache-cache et nous confondre. Même si nous percevons quelque chose de cette grande ubiquité pour en attraper un petit aperçu, nous ne pouvons pas vraiment les voir. Ces degrés de liberté supplémentaires(s) leur permettraient de changer le modèle de vol, et peut-être, allons savoir : de créer des trous de ver entre univers parallèle ou de se transporter dans l'espace profond à des années lumières en une chiquenaude. Beaucoup de chercheurs ufologues pensent que les plus petit UFOs sont expédiés vers la terre depuis de grands bateaux mère. Ou sont ces vaisseaux mère - pourquoi ne pouvons nous pas les voir avec de puissants télescopes ? La réponse pourrait être simple ; ces motherships restent dans l'univers parallèle. Ces degrés de liberté supplémentaires expliqueraient très bien pourquoi les UFOs ne peuvent être vu, et quasi jamais photographiés facilement sans leur consentement explicite. Les histoires d’UFOs pourraient ainsi se comprendre dès l’origine. Ils peuvent littéralement disparaître en une d'une seconde.

Auteur: Internet

Info: India daily Technology Team July 17, 2005 . © 2004-2005, Indiadaily.com. Tous droits réservés.

[ spéculation ] [ géométrie ] [ hyper dimensions ] [ multivers ]

 

Commentaires: 0

biophysique

En résumé, nous avons réexaminé les aspects quantiques de la récolte de lumière dans la photosynthèse. Il est apparu clairement, à partir de considérations de base, qu'il n'y a pas d'équivalence entre la quanticité des processus et les cohérences observées dans les expériences de spectroscopie femtoseconde. Même la question très fondamentale de savoir si les cohérences non stationnaires des systèmes photosynthétiques peuvent être excitées par la lumière du soleil n'a pas encore été totalement clarifiée. Quelle que soit la configuration la préparation de l'état, la dynamique sera régie par les couplages associés du système et son interaction avec son environnement (bath)*. En outre, les affirmations concernant la persistance de ces cohérences dans les expériences femtoseconde ont été réévaluées de manière critique. En particulier, l'analyse détaillée d'un système  exemplaire utilisée en biologie quantique - le complexe FMO** - montre sans ambiguïté l'absence de cohérence interexcitonnelle de longue durée sur les échelles de temps pertinentes dans ce système, à la fois aux températures cryogéniques et physiologiques. Au contraire, il est devenu évident que les signaux oscillants à longue durée de vie proviennent de modes vibratoires principalement issu de l'état électronique fondamental. Des analyses de données plus avancées et des traitements théoriques utilisant une paramétrisation réaliste de l'environnement modélisé (bath) sont nécessaires pour identifier clairement les signaux de cohérence. La discussion approfondie sur l'attribution antérieure de ces signatures spectrales, qui se développe dans la communauté depuis une décennie, souligne cette nécessité.

Le principal résultat positif de ce travail est l'amélioration des méthodes théoriques et expérimentales qui ont conduit à une meilleure compréhension des interactions système-bath responsables de la décohérence et de la dissipation dans les structures biologiques. La nature ne produit pas le bain (bath) pour éviter la décohérence des processus fonctionnels directs ; une telle approche ne serait certainement pas robuste. La nature, plutôt qu'essayer d'éviter la dissipation, l'exploite spécifiquement avec l'ingénierie des énergies sur site via le couplage excitonique* pour le transport direct de l'énergie. Le rôle des paramètres thermodynamiques dans le pilotage des fonctions biologiques est bien apprécié à d'autres niveaux. Ici, nous voyons que ce principe s'applique même aux processus de transfert d'énergie impliqués dans la photosynthèse qui se produisent sur des échelles de temps probablement plus rapides. La physique de base de la thermalisation étant utilisée pour imprimer une direction. Ce concept simple, maîtrisé par la nature dans toutes les dimensions temporelles et spatiales pertinentes, est une véritable merveille de la biologie. 

Auteur: Internet

Info: https://advances.sciencemag.org, 3 avril 2020. "Quantum biology revisited. Conclusions". By Jianshu Cao, Richard J. Cogdell, David F. Coker, Hong-Guang Duan, Jürgen Hauer, Ulrich Kleinekathöfer, Thomas L. C. Jansen, Tomáš Mančal, R. J. Dwayne Miller, Jennifer P. Ogilvie, Valentyn I. Prokhorenko, Thomas Renger, Howe-Siang Tan, Roel Tempelaar, Michael Thorwart, Sebastian Westenhof, Donatas Zigmantas. *En physique, un système quantique ouvert est un système de quantique qui interagit avec un système quantique externe (bath). En général, ces interactions modifient considérablement la dynamique du système et entraînent une dissipation quantique, de sorte que les informations contenues dans le système sont perdues pour son environnement. Comme aucun système quantique n'est complètement isolé de son environnement, il est important de développer un tel cadre théorique pour traiter ces interactions afin d'améliorer la compréhension des systèmes quantiques. **Complexe Fenna-Matthews-Olson : complexe hydrosoluble, a été le premier complexe pigment-protéine à être analysé par spectroscopie aux rayons X ***Un exciton est une quasi-particule que l'on peut voir comme une paire électron-trou liée par des forces de Coulomb. Une analogie consiste à comparer l'électron et le trou respectivement à l'électron et au proton d'un atome d'hydrogène. Ce phénomène se produit dans les semi-conducteurs et les isolants. Mise en forme Mg

[ anabolisme ] [ épigénétique ] [ hyper-complexité ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

L'IA de DeepMind peut construire une vision du monde à partir de plusieurs images.
L'intelligence artificielle peut maintenant se mettre à la place de quelqu'un d'autre. DeepMind a développé un réseau neuronal qui lui a appris à "imaginer" une scène à partir de différents points de vue, à partir d'une image seulement.
Avec une image 2D d'une scène - par exemple, une pièce avec un mur de brique et une sphère et un cube de couleur vive sur le sol - le réseau neuronal peut générer une vue 3D à partir d'un point de vue différent, rendant les côtés opposés des objets et modifiant l'endroit où les ombres tombent pour maintenir la même source de lumière.
Le système, nommé Generative Query Network (GQN), peut extraire des détails d'images statiques pour deviner les relations spatiales, y compris la position de la caméra.
"Imaginez que vous regardez l'Everest et que vous bougez d'un mètre - la montagne ne change pas de taille, ce qui vous dit quelque chose sur sa distance", dit Ali Eslami qui a dirigé le projet à Deepmind.
"Mais si vous regardez une tasse, elle changera de position. C'est semblable à la façon dont cela fonctionne."
Pour former le réseau neuronal, lui et son équipe lui ont montré des images d'une scène à partir de différents points de vue, utilisés pour prédire à quoi ressemblerait quelque chose depuis derrière ou du côté. Le système s' auto enseigne aussi via le contexte, les textures, les couleurs et l'éclairage. Ce qui contraste avec la technique actuelle de l'apprentissage supervisé, dans lequel les détails d'une scène sont étiquetés manuellement et transmis à l'IA.
L'IA peut également contrôler des objets dans l'espace virtuel, en appliquant sa compréhension des relations spatiales à un scénario où elle déplace un bras robotique pour ramasser une balle. Elle apprend beaucoup comme nous, même si nous ne le réalisons pas, dit Danilo Rezende de DeepMind, qui a également travaillé sur le projet.
En montrant au réseau neuronal de nombreuses images en formation, l'IA peut identifier les caractéristiques d'objets similaires et s'en souvenir. "Si vous regardez à l'intérieur du modèle, nous pouvons identifier des groupes de neurones artificiels, des unités dans le graphique de calcul, qui représentent l'objet ", dit Rezende.
Le système se déplace autour de ces scènes, faisant des prédictions sur l'endroit où les choses devraient être et à quoi elles devraient ressembler, en s'ajustant quand ses prédictions sont incorrectes.
Il a pu utiliser cette capacité pour élaborer la disposition d'un labyrinthe après avoir vu quelques photos prises de différents points de vue.

Auteur: Whyte Chelsea

Info: https://www.newscientist.com, 14 juin 2018

 

Commentaires: 0

Ajouté à la BD par miguel

résilience

Une équipe de chercheurs de l'Université de Stuttgart a envoyé dans l'espace, en septembre 2007, des oursons d'eau (ou tardigrades) avec la mission Foton-M3 à partir du cosmodrome de Baïkonour. Après avoir été exposés aux conditions hostiles de l'espace - rayonnement cosmique et ionisant, vide et froid extrême - ces petits animaux pluricellulaires, d'une taille de l'ordre d'un millimètre, ont été rapatriés à Stuttgart. Les chercheurs ont ainsi pu constater qu'un nombre non négligeable d'entre eux avait survécu.
Les oursons d'eau vivent dans la mer, l'eau douce et en milieu terrestre, dès lors qu'ils trouvent un film d'eau fin. Ils sont capables de résister à la chaleur comme au froid ou aux périodes de sécheresse en adoptant un état de latence (cryptobiose), dans lequel ils présentent une forme de tonneau et une activité métabolique nulle. Dès que les conditions environnementales s'améliorent, ils se réveillent en l'espace d'une demi-heure et rampent sur leurs huit pattes.
L'équipe du Dr. Ralph Schill a cherché à savoir si ces animaux peuvent également survivre dans l'espace. Pendant 10 jours deux espèces de tardigrades ont tourné autour de la Terre à 270 km d'altitude. Au lieu d'être protégés dans une capsule, ils étaient exposés aux conditions spatiales dans le module Biopan-6. Certains d'entre eux, protégés par des filtres, n'ont dû supporter que le vide et l'apesanteur, d'autres ont été exposés au rayonnement spatial à différentes intensités.
Le vide, qui conduit à un dessèchement extrême, n'a pas semblé poser de sérieux problèmes aux tardigrades. Le rayonnement, en revanche, qui se compose de rayons gamma, d'ultraviolets de la lumière solaire et de pluie de particules du rayonnement cosmique, a décimé l'échantillon. Les deux espèces se sont, en outre, avérées inégalement résistantes. A la différence de leurs cousins suédois (Richtersius coronifer), les tardigrades allemands (Milnesium tardigadum) ont bien supporté les UV. Certains d'entre eux ont même survécu à un rayonnement spatial non filtré: environ 2% d'entre eux ont pu être réanimés. Il reste à éclaircir comment ces animaux peuvent résister à de si fortes doses de rayonnement pendant 10 jours.
Les oursons exposés seulement aux rayons UV-A et UV-B ont globalement bien survécu à cette expérience. De retour sur Terre et après réhydratation, les chercheurs ont constaté que plus de la moitié des animaux avait résisté au séjour dans l'espace. Dans les jours suivants, quelques-uns sont morts, les autres se sont mis en quête de nourriture et ont même pondu des oeufs. Ceux-ci ont donné naissance à des oursons d'eau tout à fait normaux, ne présentant pas de séquelles liées au séjour de leurs parents dans l'espace.
Jusqu'ici, la résistance aux conditions très hostiles de l'espace n'avait été observée que chez des bactéries et des lichens, jamais encore chez des animaux. Pour le Dr. Schill, les oursons d'eau et leurs capacités particulières de survie devraient permettre d'apprendre beaucoup, en particulier sur la manière dont ces animaux protègent et réparent leurs cellules et leurs composants cellulaires. "Sur la base de ces connaissances, de nouvelles méthodes pourraient être développées pour mieux conserver des macromolécules, des cellules ou des organismes entiers", espère-t-il.

Auteur: Internet

Info: http://www.bulletins-electroniques.com, Des oursons d'eau font le tour de la Terre et reviennent de l'espace

 

Commentaires: 0

astrophysique

Une nouvelle étude met en doute le modèle standard d’expansion de l’Univers

Le taux d'expansion de l'Univers a deux valeurs différentes mais très précises et qui ne sont pas compatibles. Ce problème, connu sous le nom de tension de Hubble, rejoint d'autres questions, telles que l'origine de l'énergie noire et le problème de la planéité.

(Photo) Pour cette étude, des solutions numériques ont été obtenues pour les densités d'énergie/matière noire et pour le paramètre Hubble.

L'objectif de ce travail est d'expliquer la tension de Hubble à travers une interprétation géométrique de points de vue observationnels sur des variétés incorporées.

Des ensembles de données de 1048 supernovae Panthéon de type Ia et de 34 chronomètres cosmiques combinés à 7 échantillons basés sur la taille de l'oscillation acoustique radiale du baryon ont été utilisés pour contraindre le modèle.

Cette étude a été publiée dans la revue Classical and Quantum Gravity, par Robert Monjo et Rutwig Campoamor-Stursberg, professeurs au Département d'algèbre, géométrie et topologie de l'Université Complutense de Madrid.

L’expansion de l’Univers se produit-elle ou non comme on le pensait auparavant ?

Selon les auteurs, "les observations géométriques pures, telles que l'échelle de distance cosmique, montrent que l'expansion de l'Univers n'est pas comme celle observée dans le rayonnement de fond cosmique des micro-ondes". Cette différence, expliquent-ils, implique une incompatibilité statistique connue en cosmologie sous le nom de " tension de Hubble ", liée au paramètre d'expansion de l'Univers, dont le nom a été inventé en l'honneur de l'astronome Edwin Hubble, qui a détaillé le taux d'expansion il y a un siècle.

Ces travaux montrent que, lorsqu'on applique la géométrie analytique au mouvement des étoiles supernova, l'expansion cosmique se comporte " comme si elle était linéaire, avec une vitesse égale à l'inverse de l'âge de l'Univers ".

Selon Monjo, l'auteur principal de l'étude, les observations recueillies par les missions spatiales au cours des dernières décennies sont " déformées par les trajectoires courbes de la lumière dans l'espace en expansion ", provoquant une " accélération apparente ".

Pour prouver son hypothèse, l'étude analyse sa compatibilité avec la théorie standard, prédisant une "énergie sombre apparente" de 70%, c'est-à-dire "très similaire à celle vraisemblablement observée dans le fond cosmique des micro-ondes". La différence par rapport au modèle standard serait que cette valeur serait constante, c'est-à-dire qu'elle aurait toujours la même valeur pour s'ajuster à l'expansion linéaire.

Selon cette étude, intitulée " Perspective géométrique pour expliquer la tension de Hubble ", l'Univers serait fini, en expansion linéaire à la vitesse de la lumière, et fermé par un rayon de courbure égal à l'âge de l'Univers. Avec ces ingrédients, les auteurs dérivent une accélération fictive similaire à celle qui explique l’énergie noire.

Les auteurs envisagent l'hypothèse selon laquelle l'Univers pourrait être fini, (...) s'étendant linéairement à la vitesse de la lumière, et fermé par un rayon de courbure égal à l'âge de l'Univers (...).

Actuellement, tous les indices et alternatives à la matière noire sont sérieusement analysés par la communauté scientifique. Si les découvertes de Monjo et Campoamor-Stursberg se confirment, ce sera une nouvelle ère dans la cosmologie moderne.

Auteur: Internet

Info: tameteo.com, Joana Campos Meteored Portugal 05/11/2023

[ cosmologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

monde subatomique

Des physiciens comprennent enfin pourquoi l’interaction forte est si tenace 

Il existe quatre forces fondamentales : la force de gravité, l’électromagnétisme, l’interaction faible et l’interaction (ou force) forte. Cette dernière est la plus intense. L’interaction forte agit en liant les quarks au sein des protons et des neutrons. Elle maintient ainsi les nucléons ensemble pour former des noyaux atomiques. La force forte est jusqu’à 100 000 milliards de milliards de fois plus intense que la force de gravité. Malgré cette intensité, elle est relativement peu comprise, par rapport aux autres forces. Récemment, des chercheurs ont percé l’un des mystères de l’interaction forte expliquant sa ténacité et sont notamment parvenus à la mesurer de façon plus précise.

L’interaction forte est quantifiée par la constante de couplage (que les auteurs de l’étude choisissent d’appeler simplement " couplage "), notée αs (alpha s). Il s’agit d’un paramètre fondamental dans la théorie de la chromodynamique quantique (QCD).

La difficulté de la mesure de αs réside principalement dans sa nature très variable : plus deux quarks sont éloignés, plus le couplage est élevé, et plus l’attraction entre eux devient forte. À des distances faibles, où αs est encore faible, les physiciens parviennent à appliquer des méthodes de calcul basique pour déterminer le couplage. Cependant, ces techniques deviennent inefficaces à des distances plus importantes. Dans une nouvelle étude, des physiciens ont ainsi réussi à appliquer de nouvelles méthodes pour mieux déterminer αs à des distances plus importantes. 

Un calcul basé sur l’intégrale de Bjorken

Poussé par sa curiosité, l’un des chercheurs a testé l’utilisation de l’intégrale de Bjorken pour prédire αs sur de longues distances. Cette méthode permet de définir des paramètres relatifs à la rotation de la structure des nucléons et ainsi de calculer le couplage de la force forte à courte distance. Le scientifique ne s’attendait donc pas à faire une découverte de ce calibre en faisant cet essai. Pourtant, contre toute attente, ses résultats ont montré qu’à un moment donné, αs cesse d’augmenter pour devenir constant. Il a ainsi partagé ses découvertes avec son mentor qui avait, lui aussi, obtenu des résultats similaires dans des travaux antérieurs.

 "Ce fut une chance, car même si personne ne s’en était encore rendu compte, l’intégrale de Bjorken est particulièrement adaptée aux calculs de αs sur de longues distances ", déclarent les chercheurs dans un article du Scientific American. Les résultats ont été présentés lors de diverses conférences de physique, durant l’une desquelles l’auteur principal a rencontré un autre physicien, Stanley Brodsky, qui aurait appuyé les résultats obtenus.

Une méthode par holographie

En parallèle à cette découverte, d’autres physiciens ont travaillé sur la mise au point d’une autre méthode de calcul de αs sur de longues distances, qu’ils ont appelée " holographie du front lumineux ". L’holographie est une technique mathématique qui a initialement été développée dans le contexte de la théorie des cordes et de la physique des trous noirs.

Cependant, en physique des particules, elle sert à modéliser des phénomènes en quatre dimensions (incluant les trois dimensions spatiales et une dimension temporelle) en se basant sur des calculs effectués dans un espace à cinq dimensions. Dans cette méthode, la cinquième dimension n’est pas nécessairement une dimension physique réelle, mais peut servir d’outil mathématique pour faciliter les calculs. L’idée est que certaines équations complexes en quatre dimensions peuvent devenir plus simples ou plus intuitives quand elles sont envisagées dans un espace à cinq dimensions.

Auteur: Internet

Info: https://trustmyscience.com/ - Miotisoa Randrianarisoa & J. Paiano·15 avril 2024

[ gluons ] [ force de cohésion nucléaire ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Des poissons plus méfiants remettent en cause les méthodes de surveillance des stocks de poissons.
L'Organisation des Nations unies pour l'alimentation et l'agriculture (FAO) estime que près de 70 % des stocks halieutiques sont pleinement exploités voire surexploités. Mais ce n'est peut-être qu'un tour joué par des poissons méfiants... La surexploitation industrielle est certainement un problème, mais une étude sur la pêche de loisir conduite par des scientifiques de l'UE sur les côtes de Majorque soulève quelques doutes sur l'exactitude des outils actuels utilisés pour la surveillance des stocks halieutiques.
Le tourisme représente 80 % de l'économie de l'île de Majorque, mais ce ne sont ni les plages ensoleillées ni les beaux paysages qui ont attiré Josep Alós et Robert Arlinghaus. Depuis janvier 2014, les deux scientifiques étudient les populations de poissons de la région, grâce à de nouveaux modèles mathématiques et méthodes de suivi. Et leurs découvertes sont plutôt déconcertantes. En effet, il semblerait que plus les pêcheurs sont nombreux, moins les poissons ont tendance à mordre à l'hameçon.
Pour arriver à ce résultat, les chercheurs ont étudié le comportement de deux poissons, le Serranus scriba (le Serran ou perche de mer), un carnivore, et le Diplodus annularis (le Sparaillon), un alguivore. Les études ont concerné 54 emplacements présentant les mêmes caractéristiques d'habitat mais soumises à différentes pressions de pêche à la ligne. Pendant la pêche, une caméra vidéo sous-marine autonome enregistrait le comportement des poissons.
Si je me fais avoir une fois...
Logiquement, la perche de mer, qui ne peut réfléchir trop longtemps avant d'attaquer une proie mobile, devait être plus agressive que le sparaillon envers les appâts. Mais les faits ont rapidement remis cette hypothèse en question: les poissons étaient effectivement plus agressifs lorsque les pêcheurs étaient rares, mais ils devenaient de plus en plus prudents avec l'augmentation du nombre d'appâts. Selon l'équipe, ce comportement évolutif peut s'expliquer par une sélection génétique vers une méfiance renforcée ainsi que par l'expérience, entraînant ainsi une diminution des prises.
Ces résultats sont en contradiction avec une étude précédente des deux scientifiques, qui s'était limitée à surveiller les méthodes standard de pêche à la ligne et avait conclu que les zones marines protégées contenaient des poissons plus nombreux et plus gros que les zones très exploitées. Le comportement du sparaillon, quant à lui, ne semblait pas affecté par ce changement.
"Ces résultats suggèrent que la pêche récréative pourrait aboutir à une situation apparente d'une forte réduction des prises mais sans changement réel dans la population des poissons, où le taux de prises décline plus vite que l'abondance des poissons", déclare Josep Alós, chercheur au Leibniz-Institute of Freshwater Ecology and Inland Fisheries et co-auteur de l'étude.
Cela veut-il dire que la diminution des stocks halieutiques, constatée à l'échelle mondiale, résulterait en fait d'un comportement plus méfiant des poissons? "Les rapports sur le déclin considérable des populations de poissons dans les océans s'appuyant uniquement sur les données provenant des pêcheries comme la pêche à la palangre du thon, de la morue ou de l'espadon pourraient donc s'expliquer par un comportement plus prudent de ces poissons. Nous devons revoir notre système de surveillance des stocks de poissons et tenir compte des possibles changements de comportement. Il se peut que certaines zones très exploitées contiennent en fait plus de poissons que nous le pensons", conclut Robert Arlinghaus, directeur de l'étude et chercheur à la Humboldt-Universität zu Berlin.
L'étude a été financée dans le cadre du projet FISH&FISHERS, qui cherche à améliorer les estimations de mortalité des poissons en étudiant les interactions spatiales entre les poissons et les pêcheurs. L'équipe espère que ses résultats contribueront à mieux protéger les écosystèmes marins, à préserver la biodiversité, et à renforcer la durabilité des pêcheries.

Auteur: Internet

Info: The role of the behavioural interactions between fish and fishers on fisheries sustainability, From 2014-01-01 to 2015-12-31, closed project

[ causes-effets ]

 

Commentaires: 0

question

La pensée est-elle contenue dans le langage?

Suite de notre série d’été: selon les scientifiques, les mots suggèrent toujours plus que la pensée qui les a fait naître.

" Me promenant en ville, l’autre jour, j’ai entendu tout à coup un miaulement plaintif au-dessus de moi. J’ai levé les yeux. Sur le bord du toit se trouvait un petit chat. "

Il suffit de lire (ou d’écouter) ce début d’histoire pour " voir " aussitôt la scène: le toit, le petit chat, le promeneur qui le regarde. A quoi ressemble ce chat? Peu importe qu’il soit blanc ou noir, le mot renvoie à ce que tout le monde connaît: un animal à quatre pattes, une queue, des oreilles pointues, des yeux ronds, qui miaule (et parfois ronronne).

Mais sans l’existence d’un mot ­général qui désigne tous les types de chats – roux, noirs, blancs, tigrés, assis ou debout, gros ou maigrelets… –, aurait-on une idée générale de l’espèce " chat "? Notre monde mental ne serait-il pas dispersé en une myriade d’impressions, de situations, d’objets tous différents? Deux conceptions s’opposent à ce propos.

La plupart des philosophes, psychologues et linguistes, au début du XXe siècle, partagent cette idée: le langage étant le propre de l’homme, c’est lui qui donne accès à la pensée. Sans langage, il n’y aurait pas de pensée construite: nous vivrions dans un monde chaotique et brouillé fait d’impressions, de sensations, d’images fugitives.

C’est ce que pensait Ferdinand de Saussure, le père de la linguis­tique contemporaine, qui affirmait dans son Cours de linguistique générale (1916): " Philosophes et linguistes se sont toujours accordés à reconnaître que sans le secours des signes nous serions incapables de distinguer deux idées d’une façon claire et constante. Prise en elle-même, la pensée est comme une nébuleuse où rien n’est nécessairement délimité. " Et il ajoutait: " Il n’y a pas d’idées préétablies, et rien n’est distinct avant l’apparition de la langue. " Vers la même époque, le philosophe du langage Ludwig Witt­genstein était parvenu à la même conclusion: " Les limites de mon langage signifient les limites de mon monde ", écrit-il dans le Tractacus (1921). Un peu plus tard, dans Pensée et Langage (1933), le psychologue russe Lev S. Vygotski le dira à sa manière: " La pensée n’est pas seulement exprimée par les mots: elle vient à l’existence à travers les mots. "

Si le langage produit la pensée, cette théorie a de nombreuses conséquences. D’abord que la linguis­tique tient une place centrale dans la connaissance du psychisme humain et que décrypter les lois du langage revient à décrypter les lois de la pensée. Sans le mot " chat ", on ne percevrait que des cas particuliers: des chats roux, blancs ou tigrés, sans jamais comprendre qu’ils appartiennent à une même catégorie générale. Le langage donne accès à cette abstraction, déverrouille la pensée.

Mais est-on vraiment sûr que, sans l’existence du mot " chat ", notre pensée serait à ce point diffuse et inconsistante, que, privé du mot, l’on ne pourrait pas distinguer un chat d’un chien? Les recherches en psychologie cognitive, menée depuis les années 1980, allaient démontrer que les nourrissons disposent, bien avant l’apparition du langage, d’une vision du monde plus ordonnée qu’on ne le croyait jusque-là.

Ces recherches ont donné du poids aux linguistiques cognitives, apparues dans les années 1970, qui ont introduit une véritable révolution copernicienne dans la façon d’envisager les relations entre langage et pensée. Les linguistiques cognitives soutiennent en effet que les éléments constitutifs du langage – la grammaire et le lexique – dépendent de schémas mentaux préexistants. Pour le dire vite: ce n’est pas le langage qui structure la pensée, c’est la pensée qui façonne le langage. L’idée du chat précède le mot, et même un aphasique, qui a perdu l’usage du langage, n’en reconnaît pas moins l’animal.

Les conséquences de cette approche allaient être fondamentales. Tout d’abord la linguistique perdait son rôle central pour comprendre le psychisme humain. Et la psy­chologie cognitive, qui se propose de comprendre les états mentaux, devait prendre sa place.

Ainsi, pour comprendre le sens du mot " chat ", il faut d’abord comprendre le contenu de la pensée auquel le mot réfère. Pour la psychologue Eleanor Rosch (une référence essentielle pour les linguistiques cognitives), l’idée de " chat " se présente sous la forme d’une image mentale typique appelée " prototype ", correspondant à un modèle mental courant: l’animal au poil soyeux, yeux ronds, moustache, qui miaule, etc. La représentation visuelle tient une place centrale dans ce modèle mental: ce sont d’ailleurs dans les livres d’images que les enfants découvrent aujourd’hui ce qu’est une vache, un cochon ou un dinosaure.

Georges Lakoff, élève dissident de Noam Chomsky et tenant de la sémantique cognitive, soutiendra que les mots prennent sens à partir des schémas mentaux sur lesquels ils sont greffés. Voilà d’ailleurs comment s’expliquent les métaphores. Si je dis d’un homme qu’il est un " gros matou ", personne ne va le prendre pour un chat, chacun comprend que je fais appel à des cara­ctéristiques sous-jacentes des gros chats domestiques: placides, indolents, doux. Ce sont ces traits sous-jacents qui forment la trame des mots et leur donnent sens.

Ronald W. Langacker  a appliqué les mêmes principes à la grammaire. Les structures de la grammaire ne reposent pas sur les lois internes au langage, mais dérivent de catégories mentales plus pro­fondes, notamment des représen­tations spatiales. Ainsi, dans beaucoup de langues, l’expression du temps (futur, passé) est décrite en termes d’espace: on dit " après"-demain ou "avant"-hier, comme on dit que le temps est " long " ou " court ".

Ces approches psychologiques du langage ont donc renversé le rapport entre langage et pensée.

Une des conséquences majeures est que le langage n’est pas le seul " propre de l’homme "; il n’est qu’un dérivé de la capacité à produire des représentations mentales, précisément des images mentales organisées en catégories. Au moment même où les linguistiques cogni­tives prenaient de l’importante, un autre courant de pensée, la prag­matique (à ne pas confondre avec le pragmatisme, un courant philosophique américain) allait proposer une autre version des relations entre langage et pensée.

Revenons à notre chat perdu. En utilisant le mot " chat ", nul ne sait exactement quelle image l’auteur de l’histoire a vraiment en tête: quelle est pour lui sa couleur, sa taille ou sa position exacte? Le mot a la capacité de déclencher des représentations, mais il ne peut les contenir intégralement. C’est sa force et ses limites.

Selon l’approche de la pragmat­ique, le langage n’est ni le créateur de la pensée (comme le pensait Saussure) ni son reflet (comme le soutiennent les linguistiques cognitives) : il est un médiateur qui déclenche des représentations. C’est un peu comme une étiquette sur une porte qui indique ce qui se trouve à l’intérieur (chambre 23, WC…) mais ne dit rien sur la couleur des murs, la forme du lit ou la position des toilettes.

Cela a d’importantes conséquences sur la façon d’envisager les relations entre langage et pensée. Le mot ne contient pas l’idée, il ne la reflète pas non plus, mais il l’induit. Quand on communique, on ne fait qu’induire une représentation. Le procédé est économique car il n’oblige pas à tout dire: le " toit " sur lequel est perché le chat renvoie ­implicitement au toit d’une maison et non à un toit de voiture, tout le monde le comprend sans qu’il soit besoin de le dire. Tous les mots comportent de l’implicite, qu’il s’agit de décoder.

En un sens, le langage, comme outil de communication, est réducteur par rapport à la pensée qu’il représente. Mais en même temps, les mots suggèrent toujours plus que la pensée qui les a fait naître, déclenchant chez ceux qui l’écoutent une infinité de représentations possibles. 

Auteur: Internet

Info: https://www.letemps.ch/ - Jean-François Fortier août 2013

[ signifiants symboles ] [ manifestations codées ] [ tiercités ] [ contextualisation générale ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste