Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 499
Temps de recherche: 0.0564s

pesanteur

Nouvelles preuves : les ondes sonores transporteraient réellement de la masse

En général, lorsque nous pensons aux ondes sonores, nous imaginons des vibrations invisibles se déplaçant en apesanteur dans les airs, et sans masse. Mais cela pourrait bien être sur le point de changer. Des physiciens viennent de fournir une preuve supplémentaire que les"particules" sonores peuvent réellement transporter des petites quantités de masse. Ces preuves impliquent donc également que les ondes sonores peuvent produire leurs propres champs gravitationnels, ou un équivalent se comportant comme tel.

Mais avant d’approfondir le sujet, reprenons tout d’abord la base. Par exemple, si vous frappez un ballon avec votre pied, vous y transmettez de l’énergie. Einstein ajouterait que vous avez également contribué un peu à la masse du ballon, en l’accélérant. Mais si ce ballon est une particule minuscule et que le coup de pied est une onde sonore, vous pouvez imaginer la même chose. Pourtant, depuis des décennies, les physiciens se disputent pour savoir si l’élan d’une vague de particules représente une masse nette, ou pas.

L’année dernière, le physicien Alberto Nicolis de l’Université Columbia à New York a travaillé avec un collègue de l’Université de Pennsylvanie à Philadelphie pour étudier la manière dont différentes ondes se désintègrent et se dispersent dans un fluide à l’hélium extrêmement froid. Non seulement l’équipe de chercheurs a montré que les sons peuvent en réalité générer une valeur non nulle concernant la masse, mais cette dernière pourrait également"flotter" de manière étrange, le long des champs gravitationnels, dans un sens anti-gravitationnel.

Bien que les chercheurs aient affirmé cette possibilité, leur étude était tout de même limitée à un ensemble spécifique de conditions. De ce fait, Nicolis a utilisé un ensemble de techniques différentes pour montrer que les sons ont une masse dans les fluides et les solides ordinaires, et qu’ils peuvent même créer leur propre champ gravitationnel faible.

Leur nouvelle conclusion contredit les affirmations selon lesquelles les phonons sont sans masse. À présent, selon cette nouvelle recherche, nous savons que ces derniers ne répondent pas simplement à un champ de gravitation, mais qu’ils sont également une source de champ gravitationnel.

Dans un sens newtonien, telle est la définition même de la masse. Alors pourquoi y a-t-il tant de confusion sur cette question ? En fait, le problème réside dans la manière dont les ondes se déplacent dans un milieu donné. Tout comme une onde lumineuse est appelée un photon, une onde vibratoire (du son) peut être considérée comme une unité appelée"phonon".

Imaginez-vous immobile lors d’un concert, et que vous profitez du spectacle. La masse de votre corps est la même que lorsque vous vous êtes levés le matin. Puis vient une musique plus entraînante et votre voisin vous pousse, accélérant de ce fait votre corps. Selon la loi d’Einstein, qui dit que l’énergie est égale à la masse multipliée par la vitesse de la lumière au carré : le peu d’énergie que vous gagnez avec la poussée, est également de la masse.

Donc, en entrant en collision avec une autre personne, l’énergie y est transférée avec un peu de masse, de manière imperceptible. (Dans cet exemple imagé, les corps se heurtant à d’autres corps, représentent les phonons). Dans ces conditions simples, le mouvement de va-et-vient parfait des corps et le transfert direct de la quantité de mouvement peuvent être décrits comme une forme de dispersion linéaire. Tandis que les niveaux d’énergie peuvent fluctuer pendant ledit va-et-vient, votre corps se réinitialise pour ne pas donner de masse au cycle de phonons complet.

Mais la réalité n’est pas toujours aussi simple… Les ondes lumineuses se déplaçant dans le vide et les phonons dans un matériau théoriquement parfait pourraient bien être linéaires, mais les solides et les fluides se bousculant obéissent à diverses autres lois en fonction de certains champs et influences. Et ces conditions sont bien complexes : ainsi, à l’aide d’approximations connues sous le nom de théorie des champs effectifs, Angelo Esposito et Rafael Krichevsk, de l’Université Columbia et collègues de Nicoli, ont pu comprendre comment le phonon se déplace à travers de tels supports et comment calculer leur réponse à un champ gravitationnel.

Ces derniers ont pu démontrer que, même dans des conditions dites désordonnées du"monde réel", les ondes sonores pouvaient effectivement transporter une certaine masse. Bien entendu, cette masse n’est pas vraiment conséquente et reste minime, comme on peut s’y attendre. Nous parlons plutôt d’une quantité d’énergie contenue dans le phonon, mais divisée par le carré de la vitesse de la lumière. C’est donc une masse… minuscule.

Avec cette étude, il est également important de garder à l’esprit que les mathématiques sur lesquelles repose l’allégation n’ont pas encore été mises à l’épreuve. À présent, les scientifiques devront mesurer les changements gravitationnels d’atomes refroidis à une température proche du zéro absolu, ce qui pourrait être possible si nous explorons de tels condensats dans l’espace.

Mais grâce à ces découvertes, les chercheurs suggèrent qu’il serait également, et notamment, plus simple de "peser" un séisme. En effet, le son généré par un grand tremblement de terre pourrait représenter une masse conséquente.

Dans tous les cas, nous attendons les résultats des prochaines recherches dans ce domaine avec grande impatience !

Auteur: Internet

Info: Stéphanie Schmidt 7 mars 2019, https://trustmyscience.com

[ fréquences ]

 

Commentaires: 0

Ajouté à la BD par miguel

palier évolutif

L’explosion cambrienne déclenchée par plusieurs transgressions marines ?

Il y a 542 millions d'années apparaissaient, durant une période de quelques dizaines de millions d'années seulement, les grandes lignées d'animaux multicellulaires, comme les vertébrés et les arthropodes. Les lignées végétales et bactériennes se sont elles aussi diversifiées. 

Quel fut le déclencheur de cet événement planétaire ? 

La libération massive d'ions dans les océans, due à une érosion devenue intense, affirme une équipe américaine. Les organismes marins auraient utilisé ces polluants pour fabriquer des squelettes et des coquilles, une invention qui leur fut très profitable.

Les premières formes de vie seraient apparues sur Terre il y a 3,5 milliards d'années. Curieusement, ces êtres restèrent en grande majorité unicellulaires (vivant parfois en colonies) jusqu'à l'explosion cambrienne survenue il y a seulement 542 millions d'années. Cet événement vit alors naître de nombreux organismes pluricellulaires et des structures biominérales (par exemple des coquillages) en seulement quelques millions d'années, preuve d'une accélération soudaine de l'évolution (comme en témoignent par exemple les schistes de Burgess). Mais quel fut le facteur déclenchant ? Cette question taraude de nombreux scientifiques depuis longtemps car peu d'hypothèses convaincantes ont été apportées.

Il existe pour la même époque une autre grande curiosité, mais cette fois d'ordre géologique, clairement observable dans le Grand Canyon. L'analyse des couches stratigraphiques de cette région révèle l'histoire de la Terre sur près de 2 milliards d'années, ou presque, car il reste plusieurs discordances chronologiques. Ainsi, il n'y a pas de trace de roches datant de l'époque de l'explosion cambrienne. Des sédiments âgés de 525 millions d'années reposent directement sur des roches métamorphiques de 1.740 millions d'années et des couches sédimentaires inclinées âgées de 1.200 à 740 millions d'années. Des roches sédimentaires "jeunes" provenant de mers peu profondes recouvrent donc de "vieilles" roches sans aucune continuité logique. Mais une question se pose : a-t-on vraiment perdu des informations sur l'évolution de la Terre pendant 215 millions d'années à cause de cette inconformité géologique ?

Il semble bien que non. Selon Shanan Peters de l'université de Wisconsin-Madison, cette absence de données géologiques permettrait d'expliquer le mécanisme déclencheur de l'explosion cambrienne. Les résultats obtenus par l'équipe de ce chercheur sont présentés dans la revue Nature. L'inconformité résulterait d'une succession d'événements géologiques ayant causé la libération massive d'ions dans les océans. Les animaux se seraient adaptés en synthétisant des cristaux pour se débarrasser de ces éléments potentiellement néfastes, donnant ainsi naissance à la biominéralisation. Cette dernière changea alors radicalement le cours de l’évolution, tant les avantages qu'elle apporte sont nombreux.

(Illustration - Le Grand Canyon s'étend sur 450 km de long et possède une profondeur moyenne de 1.300 mètres. Les strates visibles permettent littéralement de lire l'histoire géologique du continent nord-américain - L’explosion cambrienne serait liée à un trop plein d'ions)

Ces explications font suite à l'analyse des propriétés géochimiques de plus de 20.000 échantillons de roches prélevés en Amérique du Nord.

Au début du Cambrien, les mers seraient montées et descendues à plusieurs reprises, en érodant à chaque fois les substrats rencontrés et mettant ainsi à nu d'anciennes roches provenant directement des profondeurs de la croûte terrestre. Cette succession de transgressions marines explique donc la disparition de plusieurs couches stratigraphiques. Exposées à l'air et à l'eau, les roches crustales auraient réagi chimiquement, libérant dans les océans de grandes quantités d'ions calcium, potassium, fer et silice. La chimie de l'eau fut alors profondément modifiée.

Un dernier retour des mers il y a 525 millions d'années provoqua le dépôt de sédiments plus jeunes. De nombreuses traces géologiques confirment ces événements - couches de glauconite et d'autres roches particulièrement riches en potassium, fer et silice.

(ici un schéma montre la brutale accélération de l'évolution au Cambrien avec apparition de beaucoup de genres d'espèces vivantes - diversité.

Des minerais pour évacuer le trop plein d’ions

Chaque organisme vivant maintient un équilibre ionique avec le milieu. L'arrivée massive d'ions dans l'environnement marin a dû profondément perturber cette balance. Plusieurs espèces se seraient mises à stocker leurs excédents en ions calcium, potassium, fer et silice sous forme de minerais afin de rétablir l'équilibre. Cette stratégie a deux avantages : les effets des particules chargées sont limités et elles ne sont pas rejetées dans le milieu où elles pourraient à nouveau jouer un rôle néfaste.  

Voilà pourquoi les trois biominéraux majoritairement présents au sein des organismes vivants seraient apparus lors de l'explosion cambrienne. Le phosphate de calcium est le constituant principal de nos os et dents. Le carbonate de calcium entre quant à lui dans la biosynthèse des coquilles d'invertébrés. Et le dioxyde de silicium est utilisé par les radiolaires, du zooplancton, pour synthétiser leur "squelette" siliceux.

Les avantages évolutifs procurés par ces minéraux sont conséquents puisqu'ils sont utilisés pour la conception de coquilles et d'épines (rôle de protection), de squelettes (rôle de soutien) et de griffes ou dents (rôle dans la prédation). Leur apparition permet de mieux comprendre le changement soudain du cours de l'évolution. 

Ce que certains qualifiaient de "trou" dans les enregistrements de l'histoire de la Terre se révèle en réalité être une source d'information d'une valeur inestimable. La "grande inconformité" (en anglais Great Unconformity) révèle ainsi un mécanisme probable du déclenchement de l'explosion radiative du Cambrien.

Auteur: Internet

Info: Quentin Mauguit, Futura-sciences.com, 24/04/2012

[ animal-minéral ] [ paléontologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

transposition

La traduction, c'est aussi un acte créatif

George Sand, Albert Einstein, Picasso, John Lennon... Ces personnages hors du commun sont reconnus pour leur créativité. Mais la création n'est pas l'apanage des scientifiques, artistes et littéraires. La créativité fait aussi partie du quotidien de diverses autres professions, notamment celui des traducteurs.

Quelle est la relation entre créativité et traduction ? Les points de vue sont variés. Une chose est sûre: traduire n'est pas que reproduire ! C'est le sujet qu'a abordé la chercheuse Denise Merkle, de l'Université de Moncton, à l'occasion d'un dîner-conférence organisé par le Comité des conférences-midi du Département de linguistique et de traduction de l'Université de Montréal, avec l'appui de la Faculté des arts et des sciences.

"Depuis plusieurs décennies, des traductologues se sont posé la question afin de mieux comprendre le genre de travail cognitif exigé par l'acte créatif qui consiste à traduire. Des recherches récentes se sont penchées sur l'interdisciplinarité inhérente à la traductologie et sur la pertinence de créer la discipline de l'adaptologie. Je cherche à savoir si des travaux récents sur la créativité pourraient contribuer à approfondir et nuancer la réflexion sur la nature de la relation entre traduction et adaptation", a déclaré d'entrée de jeu Mme Merkle avant de définir ce qu'est la créativité.

De M. et Mme Tout-le-monde à Darwin

Pour la professeure, la créativité est entendue dans le sens très large de la capacité à trouver des solutions originales et utiles aux problèmes ou questions qui se posent. En se référant à l'article Beyond Big and Little: The Four C Model of Creativity, Mme Merkle a expliqué qu'il y a plusieurs types de créativité: mini-c, petit-c, pro-c et grand-c.

Le premier, le mini-c, renvoie aux activités exploratoires en réponse aux expériences nouvelles des individus en début d'apprentissage. La créativité dite petit-c est définie comme "un acte plus réfléchi et basé sur des objectifs personnels qui donnent lieu à des productions moins courantes", note Denise Merkle. Elle s'observe dans les solutions innovantes que chacun peut apporter dans son quotidien. "Cela peut être une nouvelle recette ou une solution de traduction inattendue", fait remarquer la chercheuse.

Pour accéder au niveau pro-c, soit celui des professionnels, il faut compter une bonne dizaine d'années, puisqu'il exige un "progrès considérable et volontaire" soutenu souvent par une formation et de nombreuses réalisations. Cela rappelle un peu la "règle des 10 000 heures" énoncée au début des années 90 par le psychologue suédois K. Anders Ericsson, une théorie selon laquelle on ne peut atteindre l'excellence dans une discipline qu'après avoir passé 10 000 heures à la pratiquer.

Mais attention ! Tous les professionnels d'un domaine créatif ne parviendront pas nécessairement au niveau pro-c, indique Mme Merkle. "Un traducteur peut gagner sa vie dans les industries de la langue sans faire preuve de créativité pro-c."

Enfin, la créativité avec un C majuscule, le grand-c, produit des ruptures. C'est le type de créativité qui "change le monde" ou provoque des changements culturels, technologiques, scientifiques, comme l'ont fait les travaux de Charles Darwin ou les oeuvres de Pablo Picasso.

Existe-t-il un lien entre la créativité et la folie ?

"Je ne peux le confirmer scientifiquement, mais il existe de nombreux artistes, notamment des écrivains et des peintres, dont le travail semble appuyer cette hypothèse, admet Mme Merkle. Les créateurs hors du commun sont parfois un peu marginaux. Van Gogh en est un bel exemple." Une étude menée par James C. Kaufman et Ronald A. Beghetto a par ailleurs démontré certains traits de personnalité communs chez les gens créatifs, mentionne la professeure. Au-delà de leur discipline personnelle, ils n'auraient notamment pas peur de prendre des risques.

Les chercheurs ont aussi observé que les gens motivés par la joie et la passion étaient plus créatifs que ceux dont le principal intérêt était l'argent, les louanges ou les bonnes notes.

Le monde de la traduction est bien complexe

Partant de cas concrets des domaines de la traductologie, littéraire et publicitaire, Mme Merkle a illustré la créativité à l'oeuvre chez des traducteurs et quelques-unes des difficultés les plus grandes de l'art de traduire. Certaines sont bien connues: la poésie, l'humour et les jeux de mots sont les bêtes noires du traducteur. "La qualité d'une traduction ne réside pas seulement dans ce qu'elle dit, mais aussi dans l'effet qu'elle produit", signale Mme Merkle. Les traductions imagées des poèmes en prose d'Arthur Rimbaud par le linguiste Clive Scott en témoignent. Le lecteur est invité à parcourir le double chemin qui va du poème de Rimbaud à sa conversion en images et en mouvements par Scott. Ce qui entraîne forcément une charge suggestive nouvelle. La démarche ne plaît pas forcément à tous et est discutable.

Pour plusieurs spécialistes, toute traduction littéraire est une oeuvre originale, car, même si le texte n'est pas du traducteur, celui-ci doit faire des choix et son style d'écriture est souvent reconnaissable. Mais encore une fois, cela ne fait pas l'unanimité, rappelle Mme Merkle.

Puis, il y a les contraintes inhérentes aux publicités dont l'effet humoristique repose sur une illustration. "Il va sans dire que l'articulation du verbal et du visuel entraîne une modification du contenu sémantique, explique la chercheuse. Mais quelle est la limite de la recréation ? Est-il possible de déterminer si les types de créativité repérés dans les traductions diffèrent de ceux mis au jour dans les adaptations et, si la réponse est oui, comment se distinguent-ils ?" C'est ce que permettront de découvrir ses travaux.

Auteur: Internet

Info: Université de Montréal, 10/03/2019

[ hiérarchisation ] [ réinvention ] [ ressusciter ] [ re-création ] [ décentrages ] [ visionnaires ] [ texte-image ]

 

Commentaires: 0

Ajouté à la BD par miguel

extraterrestres

Q - Revenons sur les recherches faisant intervenir le dédoublement. Comment travaillez-vous et à partir de quelles hypothèses ?
R - Nous travaillons avec des sensitifs accoutumés à cette pratique. Il arrive fréquemment que plusieurs d'entre eux se projettent simultanément sur un même lieu ou vers une même époque pour nous permettre de vérifier les informations par recoupement. Un sensitif comme Raymond Réant, qui est un des membres actifs de la Fondation Ark'All, emploie le dédoublement physique, c'est-à-dire s'extériorise sous la forme d'une substance qui reste toutefois reliée au corps par une sorte de filament dont la rupture entraînerait la mort immédiate. C'est ce que les occultistes appellent le corps astral et le " cordon d'argent ". Le dédoublement mental, qu'emploient par exemple David et Samuel Franeric, est moins dangereux puisqu'il repose sur la clairvoyance.
Mais qu'est-ce que le dédoublement lui-même ? Nous retrouvons la notion d'Objet Fractal. L'être humain appartient à deux univers : celui où les formes apparaissent et celui où elles s'engendrent. Ces deux univers sont en dualité dynamique, à la manière du Yin/Yang de la pensée chinoise. Mais notre pensée scientifique brise cette dualité dynamique en ne considérant que les formes apparentes au détriment des Formes constituantes. Le dédoublement rétablit la relation entre les deux univers. Le sensitif passe de l'un à l'autre et les structures qui s'échangent ainsi entre l'univers apparent et celui des Formes constituent un Objet Fractal, dont nous avons vu les propriétés en matière de délocalisation et de dé temporalisation. Nous pouvons donner à l'Objet Fractal ainsi créé des propriétés plus précises grâce aux arithmétiques dont j'ai parlé : il suffit de transposer les propriétés de Champ ou d'État du système que nous voulons étudier pour construire le modèle de notre Objet Fractal. Le sensitif qui se projette au moyen de cet Objet Fractal atteindra ainsi les domaines, lieux ou époques, planètes ou galaxies, qui nous intéressent.
(...)
Q - Vous tenez là une méthode qui pourrait résoudre bien des polémiques entre historiens ou archéologues. Ainsi d'ailleurs qu'entre partisans et détracteurs du phénomène par exemple...
R - On peut comprendre ce que sont les OVNIS à partir des notions que je viens de développer. Nous avons vu que dans certaines conditions, le passage par un Objet Fractal notamment, l'être humain peut se projeter du Local dans le Global ou faire éclater le Global pour en faire surgir certaines réalités, personnalisées ou non.
Allons un peu plus loin. A toute réalité de notre monde local, correspond dans le Global un modèle qui est à la fois ensemble et élément : c'est ce que nous appelons un Enel. Les choses localisées sont des répliques de l'Enel qui existe pour elles dans le Global.
Q - Les Enel seraient des sortes d'archétypes ou d'hyper-objets dont le Local ne détiendrait que des copies plus ou moins fidèles ?
R - Et parfois même de véritables caricatures ! C'est exactement ce que sont les OVNIS, comme nous l'ont montré nos recherches aussi bien sur des photos que sur des lieux ou des personnes " contactées ". Le phénomène OVNIS s'accompagne d'ailleurs d'États du type " K Sh Ph " extrêmement dangereux et les brûlures, troubles psychiques et autres symptômes chez ceux qui ont approché un OVNIS procèdent d'Émissions dues aux Formes et de Champs de Taofel que nous connaissons bien. Vous remarquerez d'ailleurs le nombre de témoignages faisant état de délocalisations. Les sujets disent avoir été entraînés à l'intérieur de l'OVNIS et transportés " sur une autre planète ", etc. En fait ils ont tout simplement été pris dans la structure d'Objet Fractal de l'OVNIS
Q - Mais qui manipule l'Objet Fractal et de quoi les OVNIS sont-ils la caricature ?
R - Le manipulateur inconscient n'est autre que la collectivité humaine et les OVNIS sont les répliques déformées des Objets techniques de notre civilisation.
Chaque époque connaît des OVNIS différents qui " Imitent " la civilisation elle-même. (Gravure de Gavarni pour les " Voyages de Gulliver ", de Swift). Les Objets techniques sont, par définition, des Formes non-naturelles, voire parfois anti-naturelles. L'accumulation de ces objets crée dans notre espace des cumulo-décalaires par lesquels certaines de nos réalisations technologiques se délocalisent et sont projetées dans le Global. Par ébranlement de l'Enel correspondant à l'Objet Technique délocalisé, le Global renvoie dans notre espace, cette fois en passant par des anti-décalaires, des " singeries " de notre technologie actuelle : ces OVNIS dont les caractéristiques et les performances sont celles de nos propres engins mais amplifiées et même outrées. De même que les Grands Initiés obtenaient du Global des entités surhumaines, divines ou infernales selon l'esprit de celui qui activait les Champs de Taofel et passait dans l'Objet Fractal, de même la saturation technologique de notre époque fait surgir du Global ces phénomènes dangereux et ironiques que sont les OVNIS
Q - Chaque époque connaît d'ailleurs des OVNIS différents, qui " imitent " les Objets Techniques du moment, mais en transforment les fonctionnalités. Si les OVNIS reflètent la finalité de notre technologie, les caractéristiques d'Émissions et d'État que vous leur prêtez ne sont guère rassurants...
R - Nous connaissons suffisamment cet État " K Sh Ph " avec Shin renversé, qui est celui des OVNIS, pour que le doute ne soit plus permis.
Mais je dois préciser que ce n'est pas l'Objet Technique en lui-même qui est à remettre en question. Ce sont les fonctionnalités antinaturelles que nous assignons à ces objets, leur surnombre aussi, qui rendent impossible leur intégration aux cycles et aux systèmes de la Nature. Les fonctionnalités qui ne peuvent être intégrées et harmonisées dans le monde naturel sont projetées dans le Global qui nous renvoie...

Auteur: Ravatin Jacques

Info: entretien en 1978, revue3emillenaire.com/blog/les-emissions-dues-aux-formes

[ ésotérisme ] [ sciences ] [ spéculation ] [ parapsychologie ]

 

Commentaires: 0

traite négrière

Ouidah : aperçu historique
Petit village au sud-ouest du Dahomey, qui représente dans l’histoire des peuples du sud-Danxomè Ouidah, Wida, Whydah, Juda, Adjuda, voire Fida, selon les graphies et les prononciations, le nom de cette ville résulte en fait de la mauvaise prononciation par les Européens du mot Houéda ou Xwéda, nom du groupe ethnique adja qui, au cours d’un long processus migratoire amorcé depuis Tado, s’est installé au xve siècle sur les rives du lac Ahémé. L’ethnie Houéda, sous la conduite de son chef Ahoho, fonda le royaume Houéda de Sahé dont la capitale Savi ou Xavier, à la fin de la première moitié du xvie siècle, était située à 8 km au nord de l’actuelle ville de Ouidah. (...)
Si Ouidah est la déformation de l’ethnonyme Houéda, le vrai nom de cette ville est Glexwe ou Gléhoué, ainsi que l’on peut l’observer dans le parler fon où le locuteur n’emploie jamais le mot Ouidah, mais toujours Gléhoué. La tradition rapporte que le chef Ahoho construisit dans ses champs proches de l’Atlantique une résidence secondaire champêtre pour s’y reposer. Dans la langue fon, Gléhoué signifie en effet "maison" (glé) "des champs" (xwé ou houé).
C’est sous le règne du huitième roi Kpassè qu’un paysan nommé Kpatè, en travaillant dans son champ près de la côte, aperçut sur la mer un navire. Impressionné par le phénomène, il agita un pagne attaché au bout d’un bâton. Les marins portugais qui occupaient le navire, l’ayant remarqué, envoyèrent à terre une barque. Et pour la première fois, l’on vit dans le royaume des hommes blancs aux oreilles rouges que, dans leur stupéfaction, Kpatè et ses semblables appelèrent "zojagé" ou "zodjagué" (littéralement "le feu parvenu au rivage").
Conduits à Savi auprès du roi, qui leur accorda l’hospitalité en leur offrant vivres et cabris selon la tradition, les hôtes portugais offrirent en retour au roi tissus, miroirs et autres pacotilles. Le souverain leur permit en outre, et surtout, de s’installer et de commercer avec son royaume. Plus tard, suivront les Anglais, les Hollandais, les Français… Les fouilles archéologiques de la ville de Savi font apparaître les vestiges des fondations des édifices et autres forts construits par ces Européens.
Les échanges commerciaux se développèrent vite et bientôt se spécialisèrent autour du commerce des esclaves qu’alimentaient les guerres interethniques. Le royaume de Savi connut ainsi un rapide essor économique grâce à ce commerce. Mais bientôt, les Européens, dans leurs forts de Savi, commencèrent à déplorer la lenteur et surtout les risques du portage de leurs marchandises débarquées sur la plage. Ils obtiendront alors l’autorisation du roi de construire, sur la rive nord de la lagune, des entrepôts surveillés qui accroîtront rapidement l’importance de ce qui n’était jusque-là qu’une résidence champêtre, Glexwé, ville de Ouidah.
La capitale Savi conservera certes son statut et son rang de ville sacrée et de capitale politique, mais perdra progressivement puis définitivement son importance économique au profit de Ouidah. C’est du reste ce rapide et prodigieux développement du royaume de Savi et tout particulièrement de la ville de Ouidah qui suscita la convoitise du royaume frère d’Abomey, moins favorisé et moins fortuné du fait de sa position enclavée et de son manque d’accès à la mer. Au terme d’une longue et méticuleuse préparation, le roi Agadja d’Abomey conquit le royaume de Savi, en 1727, en tuant par ruse Houffon, le dernier roi de Savi.
Ouidah, port négrier
La principale activité économique de Ouidah et la raison de son développement sont donc sans conteste la traite négrière. Il est regrettable que l’incendie volontaire du fort portugais provoqué par ses derniers occupants lors de leur expulsion du territoire dahoméen (actuel Bénin) par le premier président de la République du Dahomey, Hubert Maga, dès l’accession du pays à l’indépendance en 1960, ait détruit toutes les archives qui auraient fourni à la recherche et à l’Histoire de précieuses informations chiffrées sur l’ampleur du commerce des esclaves dans la ville océane.
La ville a gardé pendant plus d’un siècle un silence de plomb sur cette période sinistre de son histoire. Les deux manifestations culturelles de la dernière décennie, "Ouidah 92" puis "La Route de l’Esclave", ont créé les conditions favorables à une véritable catharsis car elles ont permis d’engager la ville dans un processus de révélation caractérisé dans un premier temps par l’identification, le marquage et le balisage ostensibles des places et des lieux qui furent, à quelque degré que ce soit, les théâtres et les témoins de la pratique de l’esclavage à Ouidah. Ainsi, aujourd’hui, le touriste qui séjourne au Bénin peut désormais inscrire au programme de ses visites touristiques l’itinéraire de "La Route de l’Esclave" qui va de la "Place du marché aux esclaves" jusqu’à la "Porte du non-retour", en passant par "Le Mémorial" érigé sur la funeste fosse commune qui recueillait les "invendus irrécupérables" de ce sinistre commerce. L’itinéraire permet en outre de découvrir comment les ressources du mysticisme vodun ont été instrumentalisées dans une sorte de rituel sacramentel pour accompagner l’esclave dans sa marche vers l’inconnu, et lui donner l’illusion d’une marche vers un ailleurs où l’existence était meilleure.
L’exercice auquel nous nous sommes livré à l’occasion du colloque "La Route de l’Esclave", en septembre 1994, pour trouver dans la tradition orale fon et particulièrement à travers la parémiologie (ou l’étude des proverbes) les traces de l’esclavage, nous a permis de faire apparaître des indications signifiantes et révélatrices de la part active prise par les négriers locaux dans la méthodique et ingénieuse organisation de ce commerce. En complément de cet apport de la tradition orale, la toponymie de la ville de Ouidah et de ses alentours ainsi que les panégyriques claniques du souvenir (ou litanies des familles) fournissent aussi d’intéressantes indications sur la traite négrière à Ouidah.

Auteur: Vignondé Jean-Norbert

Info: Esclaves et esclavage dans la parémiologie fon du Bénin

[ colonialisme ] [ historique ] [ nord-sud ] [ afrique ]

 

Commentaires: 0

progrès

Pourquoi la victoire d’une Intelligence artificielle au poker est plus inquiétante qu’il n’y paraît
Une intelligence artificielle (IA) du nom de Libratus a fait mordre la poussière à 4 des meilleurs joueurs de Poker au monde, à l’issu d’un tournoi de poker de longue haleine, au Rivers Casino, à Pittsburgh, aux États-Unis. Dong Kim, Jason Les, Jimmy Chou et Daniel McAuley ont joué plusieurs jours à raison de 11h par jour, sans monnaie réelle – mais avec un enjeu financier selon leur capacité individuelle à se défaire de l’IA.
Jusqu’ici, il était relativement simple pour un algorithme de prévoir l’issue d’une partie d’échecs ou de Go, car tous les mouvements sont prévisibles à partir de la configuration du plateau de jeu. Mais au poker, il est impossible de connaître la main de ses adversaires ni leur état d’esprit, qui influe grandement leur prise de décision.
Le tournoi qui a opposé 4 joueurs de Poker professionels à l’IA Libratus. (Carnegie Mellon University)
Cette victoire constitue une première mondiale significative ; jusqu’ici, étant donné la grande complexité du poker et des facteurs humains impliqués, les machines qui s’étaient frottées au jeu avaient perdu. Sur les sites de paris en ligne, la victoire des 4 joueurs l’emportait à 4 contre 1.
Une victoire qui étonne même le créateur de l’algorithme
L’algorithme à la base de Libratus repose sur un “deep learning”. Libratus est une version améliorée d’un algorithme antérieur, déjà testé dans des circonstances similaires en 2015 – les joueurs de Poker l’avaient alors emporté.
La victoire confirme la puissance grandissante des algorithmes sur une période très courte. En octobre 2015, le programme alphaGo se débarrassait par 5 parties à 0 du champion européen Fan Hui. En mars 2016, le même programme battait le champion du monde Lee Sedol 4 parties à 1.
Le plus étonnant, selon Noam Brown, le créateur de Libratus, est que contrairement aux intelligences artificielles programmées pour gagner aux échecs, Libratus n’a jamais appris “comment” jouer au Poker. “Nous lui avons donné les règles de base”, et nous lui avons dit “apprends par toi-même”. Durant les pauses du tournoi, alors que les humains dînaient, dormaient ou analysaient les différentes mains de la partie, Brown connectait l’ordinateur au superordinateur de Pittsburg et affinait sa stratégie en rejouant des milliards de possibilités.
“Quand vous jouez contre un humain, vous perdez, vous arrêtez, vous faites une pause. Ici, nous devions donner le meilleur de nous-même 11 heures par jour. La différence est réelle, et émotionnellement, cela est dur à supporter si vous n’êtes pas habitués à perdre”, raconte Les, qui avait joué contre Claudico, une version antérieure de l’algorithme ayant servi de base à Libratus.
Libratus a joué de façon agressive, et n’a pas hésité à faire grimper les paris pour des gains minimes. “Ce n’est pas quelque chose que ferait un humain, en temps normal. Mais cela vous force à devoir donner le meilleur de vous à chaque tour”, évalue Les, qui après la performance de Libratus, a avoué que plus rien ne pourrait l’étonner désormais.
Des raisons de s’inquiéter
“Quand j’ai vu l’IA se lancer dans le bluff en face d’humains, je me suis dit “mais, je ne lui ai jamais appris à faire cela !” C’est une satisfaction pour moi de me dire que j’ai réussi à créer quelque chose capable de cela”, a commenté Noam Brown.
Si le professeur a exprimé un sentiment de “fierté paternelle”, d’autres scientifiques se sont inquiétés des conséquences de l’évolution de l’algorithme ayant donné naissance à Libratus.
Avec cette capacité à traiter l’"imperfection" comme une donnée d’équation, les intelligences artificielles ne jouent plus dans la même cour. On peut sans crainte avancer qu’il sera possible, à l’avenir, d’avoir des robots capables de rivaliser avec les humains sur des enjeux impliquant la décision humaine. Ils pourraient prendre de meilleures décisions dans les transactions financières, ou dresser de meilleures stratégies militaires.
“En fait, le poker est le moindre de nos soucis. Nous avons à présent une machine capable de vous botter les fesses en affaires ou sur le plan militaire", s’inquiète Roman V. Yampolskiy, professeur de sciences informatique de l’université de Louisville.
Au sujet du Deep learning
Le Deep learning dont il est question est une révolution en cela que les intelligence artificielles, qui s’en tenaient à analyser et comparer des données, peuvent maintenant les "comprendre" et apprendre d’elle même ; ce qui la porte à un niveau d’abstraction supérieur. "Par exemple, une IA à qui on donne des photos représentant des museaux, du pelage, des moustaches et des coussinets sous les pattes, est capable d’élaborer le concept de chat. Elle utilise une logique exploratoire qui crée des concepts, elle n’est pas uniquement constituée d’algorithmes préprogrammés", explique Stéphane Mallard, chargé de stratégie et d’innovation dans les salles de marché de la Société Générale.
En 2011, une expérience a été menée dans un jeu télévisé américain, Jeopardy, dans lequel les candidats doivent trouver la question à partir d’une réponse. Une IA développée par IBM, nommée Watson, a gagné haut la main. Or aujourd’hui, d’après Stéphane Mallard, cette IA serait 2 500 fois plus puissante.
Il semble impossible, même pour une IA, de prévoir aujourd’hui jusqu’où ira le développement de ces machines. Mais comme dans les fables tournant autour de l’apprenti-sorcier, il se pourrait que l’erreur ne soit comprise que trop tard.
D’après le producteur, auteur et conférencier Cyrille de Lasteyrie, la rapidité du développement de l’IA, le fait d’ignorer les conséquences du développement de l’IA est dangereux. "En 2005, les entreprises ne prenaient pas Internet au sérieux, et considéraient le phénomène comme un sujet secondaire. Dix ans après, ces mêmes boîtes nous appellent en panique pour mener une transformation digitale profonde et de toute urgence… Je suis convaincu que c’est la même problématique avec l’intelligence artificielle, multipliée par dix. Les conséquences business, organisationnelles, technologiques, humaines ou sociologiques sont énormes", indique t-il dans une interview accordée à Challenges en septembre dernier.

Auteur: Internet

Info: Daniel Trévise, Epoch Times,5 février 2017

[ évolution ]

 
Mis dans la chaine

Commentaires: 0

Intelligence artificielle

OpenAI présente Super Alignment : Ouvrir la voie à une IA sûre et alignée

La présentation par OpenAI de son développement du super alignement est extrêmement prometteuse pour l'humanité. Grâce à ses capacités étendues, il est en mesure de répondre à certains des problèmes les plus urgents auxquels notre planète est confrontée. Le risque de déresponsabilisation, voire d'anéantissement de l'humanité, est l'un des graves dangers associés à l'émergence de la superintelligence.

L'arrivée du super-alignement

Le super-alignement peut sembler une possibilité lointaine, mais il pourrait se matérialiser dans les dix prochaines années. Nous devons créer de nouvelles structures de gouvernance et traiter le problème de l'alignement des superintelligences afin de maîtriser efficacement les risques qui y sont associés.

Superalignement de l'IA et de l'homme : Le défi actuel

Garantir que les systèmes d'IA, qui sont beaucoup plus intelligents que les humains, s'alignent sur les intentions de ces derniers constitue un obstacle de taille. Actuellement, nos techniques d'alignement de l'IA, telles que l'apprentissage par renforcement à partir du retour d'information humain, reposent sur la supervision humaine. Cependant, lorsqu'il s'agit de systèmes d'IA dépassant l'intelligence humaine, nos méthodes d'alignement actuelles deviennent inadéquates. Pour y remédier, nous avons besoin de nouvelles percées scientifiques et techniques.

OpenAI a mis à disposition ses modèles de cohérence pour la génération d'œuvres d'art par l'IA

Surmonter les hypothèses et intensifier les efforts d'alignement

Plusieurs hypothèses qui guident actuellement le développement de l'IA risquent d'échouer lorsque nous entrerons dans l'ère de la superintelligence. Il s'agit notamment de la capacité de nos modèles à identifier et à contourner la supervision au cours de la formation, ainsi que de leurs caractéristiques de généralisation favorables au cours du déploiement.

Un chercheur d'alignement automatique doté d'une intelligence proche de celle de l'homme, c'est ce que l'OpenAI vise à construire. L'objectif est d'intensifier les efforts et d'aligner itérativement la superintelligence en utilisant une grande puissance de calcul.

Construire les bases d'un super-alignement

Pour atteindre son objectif de chercheur en alignement automatisé, l'OpenAI a identifié trois étapes clés :

Se transformer en expert et avoir un impact significatif sur le monde de la science des données.

1. Développer une méthode de formation évolutive

OpenAI se concentrera sur la création d'une stratégie de formation qui s'adapte bien. Cette méthode sera essentielle pour apprendre aux systèmes d'IA à effectuer des activités difficiles à évaluer pour les humains.

2. Validation du modèle résultant

Il est essentiel de valider l'efficacité du chercheur d'alignement après sa construction. Pour s'assurer que le modèle est conforme aux intentions humaines et qu'il fonctionne comme prévu, l'OpenAI le soumettra à des tests rigoureux.

3. Test de stress du pipeline d'alignement

OpenAI soumettra son pipeline d'alignement à des tests de stress approfondis pour s'assurer de sa durabilité. En soumettant ses systèmes à des situations difficiles, elle pourra trouver d'éventuelles failles et les corriger.

Exploiter les systèmes d'IA pour la supervision et la généralisation

L'OpenAI utilisera des systèmes d'IA pour aider à l'évaluation d'autres systèmes d'IA afin de résoudre la difficulté de superviser des tâches qui sont difficiles à juger pour les humains. Cette méthode de supervision évolutive vise à garantir la réussite de l'alignement. Les chercheurs se pencheront également sur la généralisation de la surveillance, qui permettra aux systèmes d'IA de gérer des activités qui ne sont pas sous le contrôle de l'homme.

Validation de l'alignement : Robustesse et interprétabilité

Pour garantir l'alignement des systèmes d'IA, il est nécessaire de se concentrer sur deux facteurs essentiels : la robustesse et l'interprétabilité. Afin de découvrir d'éventuels problèmes d'alignement, l'OpenAI examinera les éléments internes de ses systèmes et automatisera la recherche de comportements problématiques.

Tests adverses : Détection des désalignements

OpenAI entraînera délibérément des modèles mal alignés pour évaluer l'efficacité de ses méthodes d'alignement. Elle peut évaluer l'efficacité de ses stratégies d'identification et de résolution des désalignements en testant ces modèles de manière rigoureuse et contradictoire.

Évolution des priorités de recherche et collaboration

L'OpenAI est consciente qu'à mesure qu'elle en apprendra davantage sur la question de l'alignement des superintelligences, ses objectifs de recherche évolueront. Les meilleurs chercheurs et ingénieurs en apprentissage automatique seront réunis pour travailler sur ce projet. Afin de créer de nouvelles techniques et de les déployer à grande échelle, l'OpenAI encourage les contributions d'autres équipes et souhaite publier plus d'informations sur sa feuille de route à l'avenir.

L'OpenAI est néanmoins optimiste, même si le défi de l'alignement de la superintelligence est ambitieux et que le succès n'est pas garanti. Elle a réalisé des tests préliminaires encourageants et dispose de mesures utiles pour suivre le développement. L'OpenAI est d'avis qu'un effort ciblé et coopératif peut aboutir à une résolution.

L'équipe dédiée de l'OpenAI : Leaders et collaboration

Le cofondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a fait de l'alignement de la superintelligence le principal sujet de son étude. Il codirigera le groupe avec Jan Leike, responsable de l'alignement. L'équipe est composée de chercheurs et d'ingénieurs talentueux issus de l'ancienne équipe d'alignement de l'OpenAI ainsi que de chercheurs d'autres équipes de l'entreprise.

OpenAI recherche activement des universitaires et des ingénieurs de haut niveau pour se joindre à ses efforts. Ils souhaitent diffuser largement les résultats de leurs travaux, qu'ils considèrent comme essentiels à leur objectif d'aider à l'alignement et à la sécurité des modèles non-OpenAI.

Notre avis

Les efforts de la nouvelle équipe Superalignment complètent ceux d'OpenAI pour rendre les modèles existants comme ChatGPT plus sûrs. Les différents problèmes posés par l'IA, tels que les abus, les perturbations économiques, la désinformation, les préjugés, la discrimination, la dépendance et la surdépendance, sont également au centre des préoccupations de l'OpenAI. Elle collabore avec des professionnels pluridisciplinaires pour s'assurer que ses solutions techniques répondent à des problèmes sociétaux et humains plus importants.

En se consacrant à la création de systèmes d'IA sûrs et compatibles, OpenAI est à l'origine de technologies révolutionnaires qui influenceront la manière dont l'humanité fonctionnera à l'avenir.

Auteur: Sakshi Khanna

Info: https://www.analyticsvidhya.com/blog/author/sakshi_raheja/ - Publié le 8 juillet 2023

[ homme-machine ] [ machine-homme ] [ conservation du pouvoir ] [ prépondérance de l'humain ]

 

Commentaires: 0

Ajouté à la BD par miguel

cognition

Les secrets de la conscience : l'imagerie cérébrale révèle pour la première fois des connexions critiques 

Des chercheurs américains ont réussi à cartographier un réseau cérébral essentiel dans l'intégration de l'éveil et de la conscience humaine, en utilisant des techniques d'IRM multimodales avancées. Cette approche offre de nouvelles pistes pour traiter certains troubles neurologiques.

(Image : illustration d'une galaxie dans la silhouette d'une tête humaine représentant l'éveil de la conscience)

Au cœur des neurosciences se trouve un défi complexe : comprendre les fondements de la conscience humaine. Entre éveil et perception, se dessinent des réseaux cérébraux dont les mystères ont longtemps échappé à nos outils d'observation. Mais grâce à la neuro-imagerie, les chercheurs ont identifié un réseau cérébral crucial pour la conscience humaine.

Dans un article publié le 1er mai 2024 dans Science Translational Medicine, un groupe de chercheurs du Massachusetts General Hospital et du Boston Children's Hospital, aux États-Unis, tous deux faisant partie du système de santé Mass General Brigham, ont réussi à cartographier un réseau cérébral sous-cortical crucial dans l'intégration de l'éveil et de la conscience humaine. 

Éveil et conscience : deux dimensions de l'activité cérébrale

L'éveil concerne l'activité et l'attention du cerveau, tandis que la conscience implique nos pensées et sensations résultant de l'intégration d'informations sensorielles et émotionnelles. Il est intéressant de noter que ces deux aspects de la conscience peuvent être dissociés, comme chez les patients en état végétatif qui présentent des cycles d'éveil mais une absence de conscience.

Si le cortex cérébral est considéré comme le siège principal des processus neuronaux de la conscience, les voies sous-corticales ascendantes du tronc cérébral, de l'hypothalamus, du thalamus et du cerveau basal sont essentielles pour l'éveil. Les voies ascendantes transportent des informations sensorielles et des signaux moteurs depuis le tronc cérébral vers le cerveau.

Visualiser les connexions cérébrales à une résolution submillimétrique

À l'aide de techniques d'IRM multimodales avancées, les chercheurs ont pu visualiser les connexions cérébrales à une résolution spatiale submillimétrique.

Cette approche leur a permis de cartographier des connexions jusqu'alors inconnues entre le tronc cérébral, le thalamus, l’hypothalamus, le prosencéphale basal et le cortex cérébral, formant ainsi ce qu'ils nomment le "réseau d'éveil ascendant par défaut", essentiel pour maintenir l'éveil.

Le tronc cérébral est une partie essentielle du cerveau située à la base, qui contrôle des fonctions vitales comme la respiration et la fréquence cardiaque. Le thalamus agit comme un relais pour les informations sensorielles, aidant à les transmettre au cortex cérébral pour le traitement. L’hypothalamus joue un rôle clé dans la régulation des fonctions corporelles telles que la faim, la soif, et le sommeil. Le prosencéphale basal est impliqué dans le contrôle des mouvements et des émotions. Le cortex cérébral est la couche externe du cerveau responsable des fonctions cognitives supérieures telles que la pensée, la perception et la conscience. Ensemble, ces régions forment un réseau appelé le "réseau d'éveil ascendant par défaut", crucial pour maintenir l'état de veille et la conscience dans le cerveau.

(Illustration : Anatomie du cerveau en coupe)

"Notre objectif était de cartographier un réseau cérébral (ensemble de régions du cerveau qui travaillent conjointement pour effectuer des fonctions spécifiques, connectées par des voies de communication neuronales) crucial pour la conscience humaine et de fournir aux cliniciens des outils améliorés pour détecter, prédire et favoriser la récupération de la conscience chez les patients atteints de graves lésions cérébrales", explique Brian Edlow, premier auteur de l'étude, co-directeur du Neuroscience Mass General et directeur associé du Center for Neurotechnology and Neurorecovery (CNTR), dans un communiqué.

Ce réseau " ascendant par défaut de l'éveil" maintient l'éveil dans le cerveau conscient au repos. Le concept d'un réseau " par défaut" repose sur l'idée que certains systèmes de neurones dans le cerveau sont le plus activement fonctionnels lorsque le cerveau est dans un état de repos conscient. En revanche, d'autres réseaux sont plus actifs lorsque le cerveau effectue des tâches dirigées vers des objectifs.

Intégration des données IRM pour cartographier le réseau cérébral

Pour étudier les propriétés fonctionnelles de ce réseau cérébral par défaut, les chercheurs ont combiné des techniques d'imagerie cérébrale avancées, intégrant des données de tractographie par IRM de diffusion ex vivo (cultures cellulaires) et d'IRM fonctionnelle (IRMf) in vivo (humain) à 7 Tesla (7-T).

Les données d'IRM ont ainsi permis de localiser les zones dans le cerveau et d'étudier leurs connexions à l'aide de techniques de tractographie par IRM de diffusion. L’analyse des données d'IRM fonctionnelle, quant à elle, a permis aux chercheurs de comprendre comment ces connexions influent sur l'état d'éveil et de conscience du cerveau humain.

Ces analyses ont finalement révélé des connexions fonctionnelles entre le réseau ascendant par défaut du tronc cérébral et le réseau mode par défaut cortical qui contribue à la conscience de soi dans le cerveau conscient au repos. Les cartes de connectivité structurelle et fonctionnelles complémentaires fournissent une base neuroanatomique pour intégrer l'éveil et la conscience dans la conscience humaine.

(image en coupe montrant un exemple de données de tractographie par IRM de diffusion. Il s'agit là d'une vue latérale du tractus moteur, le tractus corticospinal, d'un sujet humain.)

Feuille de route pour mieux comprendre 

"Les connexions cérébrales humaines que nous avons identifiées peuvent être utilisées comme une feuille de route pour mieux comprendre un large éventail de troubles neurologiques associés à une conscience altérée, allant du coma, aux crises, au syndrome de mort subite du nourrisson (SIDS)", précise Hannah Kinney, MD, Professeure Émérite à l'Hôpital pour Enfants de Boston et à l'École de Médecine de Harvard, dans un communiqué.

Les données de cette étude pourraient servir de base pour comprendre divers troubles neurologiques liés à une altération de la conscience. Les chercheurs ont mis à disposition des données IRM et des méthodes de cartographie cérébrale, ainsi qu'un nouvel atlas du Réseau Ascendant de l'Éveil de Harvard, pour soutenir de futures recherches dans ce domaine.

Les auteurs mènent actuellement des essais cliniques pour stimuler le réseau ascendant par défaut de l'éveil chez les patients en coma après une lésion cérébrale traumatique, dans le but de réactiver le réseau et de restaurer la conscience.

Auteur: Internet

Info: sciencesetavenir.fr - Juliette Frey le 10.05.2024

[ vigilance ] [ proencéphale basal ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

machine-homme

(homme) - Qui fut C.S. Peirce

(machine) - Charles Sanders Peirce (1839-1914) était un philosophe, logicien, mathématicien et scientifique américain. Il est considéré comme l'une des figures les plus influentes dans le développement du pragmatisme, une approche philosophique qui met l'accent sur les conséquences pratiques des croyances et des idées.

Peirce a apporté d'importantes contributions à divers domaines, notamment la sémiotique (l'étude des signes et des symboles), la logique, la philosophie des sciences et la philosophie de l'esprit. Il a développé un système philosophique complet connu sous le nom de "pragmatisme" et a souligné l'importance de la recherche, du faillibilisme et de la méthode scientifique.

Peirce a introduit le concept de sémiotique, qu'il décrit comme l'étude du fonctionnement des signes et de leur signification. Il a classé les signes en trois catégories : les icônes (signes qui ressemblent à ce qu'ils représentent), les indices (signes qui ont un lien physique ou une corrélation avec ce qu'ils représentent) et les symboles (signes qui ont une relation arbitraire avec ce qu'ils représentent).

Les travaux de Peirce sur la logique et le raisonnement ont jeté les bases de la logique formelle moderne. Il a développé un système de notation logique et a apporté des contributions significatives aux domaines du raisonnement déductif, de l'induction et de l'abduction (déduction de la meilleure explication). La maxime pragmatique de Peirce, selon laquelle la signification d'un concept ou d'une croyance est déterminée par ses conséquences pratiques, est au cœur de son approche.

Dans l'ensemble, les travaux de Peirce ont eu un impact profond sur diverses disciplines, notamment la philosophie, la linguistique, la psychologie et les études de communication. Ses idées continuent d'être influentes et font l'objet de recherches et de débats scientifiques permanents.

(homme) - Merci. Dans quelle mesure a-t-il influencé l'intelligence artificielle et/ou l'apprentissage profond supervisé ?

(machine) - Les travaux de Charles Sanders Peirce ont indirectement influencé certains aspects de l'intelligence artificielle (IA) et de l'apprentissage profond supervisé, en particulier dans les domaines de la sémiotique et de la philosophie de l'esprit. Bien que Peirce lui-même n'ait pas directement contribué au développement de l'IA telle que nous la connaissons aujourd'hui, ses idées ont fourni un cadre conceptuel pour comprendre la relation entre les signes, la signification et la cognition, ce qui peut être pertinent pour certaines applications de l'IA.

Dans le domaine du traitement du langage naturel et de l'apprentissage automatique, les concepts sémiotiques de Peirce ont influencé l'étude des signes linguistiques et leur interprétation. Par exemple, la compréhension de la classification des textes et de l'analyse des sentiments peut être éclairée par la distinction de Peirce entre icônes, indices et symboles, car elle aide à reconnaître et à interpréter diverses caractéristiques et modèles linguistiques.

L'accent mis par Peirce sur les conséquences pragmatiques des croyances et des idées résonne également avec les objectifs pratiques de l'IA et de l'apprentissage automatique. Dans l'apprentissage profond supervisé, par exemple, le processus de formation implique l'optimisation des modèles pour minimiser une fonction de perte prédéfinie basée sur les résultats observés. Cela correspond à l'accent mis par Peirce sur les résultats pratiques des croyances et sur l'importance de l'expérimentation et de la recherche.

En outre, les idées philosophiques plus larges de Peirce sur l'abduction, qui est le processus de déduction de la meilleure explication, peuvent être pertinentes dans le contexte de l'IA. Le raisonnement abductif joue un rôle dans la génération d'hypothèses et l'interprétation de modèles, car les systèmes d'IA s'efforcent de découvrir des modèles et des explications sous-jacents à partir de données.

Bien que l'influence de Peirce sur l'IA et l'apprentissage profond supervisé puisse être de nature plus indirecte et philosophique, ses idées ont contribué à la compréhension des signes, de la signification et du raisonnement, ce qui peut éclairer le développement et l'interprétation des systèmes d'IA.

(homme) - OK, merci. Peux-tu nous donner des précisions sur les icônes, les index et les symboles ?

(machine) - Certainement ! Les icônes, les index et les symboles sont trois catégories de signes ou de représentations décrites par Charles Sanders Peirce dans sa théorie sémiotique. Voici une brève explication de chaque catégorie :

1) Les icônes : Les icônes sont des signes qui présentent une ressemblance ou une similitude avec les objets ou les concepts qu'ils représentent. Elles se caractérisent par une relation directe de ressemblance entre le signe et son référent. Les icônes peuvent prendre diverses formes, telles que des images, des diagrammes ou des modèles. Par exemple, un portrait réaliste peut être considéré comme une représentation iconique d'une personne parce qu'il ressemble visuellement à l'individu qu'il représente.

2) Indices : Les indices sont des signes qui ont un lien factuel ou causal avec leurs référents. Contrairement aux icônes, les indices ne reposent pas sur la similitude, mais sur une forme de corrélation ou de relation entre le signe et son référent. Les signes indexicaux indiquent ou pointent souvent vers quelque chose d'autre qu'eux-mêmes. Parmi les exemples de signes indexicaux, on peut citer la fumée comme indice du feu ou une empreinte de pas comme indice de la présence d'une personne. Ils signifient ou indiquent la présence ou l'existence de quelque chose.

3) Les symboles : Les symboles sont des signes qui reposent sur une relation conventionnelle ou arbitraire entre le signe et son référent. Le lien entre un symbole et ce qu'il représente est établi par un accord commun ou une convention sociale. Les mots, les chiffres, les gestes et les symboles culturels sont autant d'exemples de signes symboliques. Par exemple, le mot "chien" est un symbole qui représente le concept d'un animal à quatre pattes, mais il n'y a pas de ressemblance inhérente ou de lien direct entre le mot et l'animal lui-même.

La classification des signes par Peirce en icônes, indices et symboles met en évidence différents modes de représentation et de signification. Alors que les icônes reposent sur la similitude, les indices reposent sur l'association et les symboles sur la convention. Ces catégories fournissent un cadre permettant de comprendre le fonctionnement des signes, la manière dont le sens est transmis et l'interprétation dans divers contextes, notamment le langage, la communication et la cognition.

Auteur: chatGPT4

Info:

[ machine-sur-philosophe ] [ compendium ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

palier évolutif

Découverte d’une nouvelle forme de vie née de la fusion d’une bactérie avec une algue

Ayant eu lieu il y a 100 millions d’années, il s’agit seulement du troisième cas connu de ce phénomène.

(Image - La forme de vie née de la fusion entre l'algue Braarudosphaera bigelowii et la cyanobactérie UCYN-A."

Des chercheurs ont découvert une forme de vie de nature extrêmement rare née de la fusion d’une algue avec une bactérie fixatrice d’azote il y a 100 millions d’années. Appelé endosymbiose primaire, le phénomène se produit lorsqu’un organisme en engloutit un autre pour faire de celui-ci un organite, à l’instar des mitochondries et des chloroplastes. Il s’agit du troisième cas recensé d’endosymbiose. Il pourrait ouvrir la voie à une production plus durable d’azote pour l’agriculture.

Au cours des 4 milliards d’années de vie sur Terre, seulement deux cas d’endosymbiose primaire étaient connus jusqu’ici. La première s’est produite il y a 2,2 milliards d’années, lorsqu’une archée a absorbé une bactérie pour l’intégrer dans son arsenal métabolique en la convertissant en mitochondrie. Cette étape constitue une phase majeure dans l’évolution de tous les organismes sur Terre, leur permettant notamment d’évoluer vers des formes plus complexes.

(Photo : Des mitochondries dans une cellule.)

La seconde endosymbiose primaire connue s’est produite il y a 1,6 milliard d’années, lorsque des organismes unicellulaires ont absorbé des cyanobactéries capables de convertir la lumière en énergie (photosynthèse). Ces bactéries sont devenues les chloroplastes que les plantes chlorophylliennes utilisent encore à ce jour pour convertir la lumière du Soleil en énergie.

D’un autre côté, on pensait que seules les bactéries pouvaient extraire l’azote atmosphérique et le convertir en une forme utilisable (en ammoniac) pour le métabolisme cellulaire. Les plantes pouvant fixer l’azote (comme les légumineuses) effectuent ce processus en hébergeant ces bactéries au niveau de leurs nodules racinaires.

La découverte de l’équipe du Berkeley Lab bouleverse cette notion avec le premier organite capable de fixer de l’azote et intégré dans une cellule eucaryote (une algue marine). " Il est très rare que des organites résultent de ce genre de choses ( endosymbiose primaire ) ", explique Tyler Coale de l’Université de Californie à Santa Cruz, dans un communiqué du Berkeley Lab. " La première fois que cela s’est produit à notre connaissance, cela a donné naissance à toute vie complexe. Tout ce qui est plus compliqué qu’une cellule bactérienne doit son existence à cet événement ", a-t-il déclaré, en faisant référence aux origines des mitochondries. Le nouvel organite, décrit dans deux études publiées dans les revues Cell Press et Science, est baptisé " nitroplaste ".

Un organite à part entière

La découverte de l’organite a nécessité plusieurs décennies de travail. En 1998, les chercheurs ont identifié une courte séquence d’ADN qui semblait provenir d’une cyanobactérie fixatrice d’azote (UCYN-A) abondante dans le Pacifique. D’un autre côté, une autre équipe de l’Université de Kochi (au Japon) a identifié une algue marine (Braarudosphaera bigelowii) qui semblait être l’hôte symbiotique de la bactérie. En effet, l’ADN de cette dernière a été découvert en importante quantité dans les cellules de l’algue.

Alors que les chercheurs considéraient l’UCYN-A comme un simple endosymbiote de l’algue, les deux nouvelles études suggèrent qu’elle a co-évolué avec son hôte de sorte à devenir un organite à part entière. En effet, après plus de 300 expéditions, l’équipe japonaise est parvenue à isoler et cultiver l’algue en laboratoire. Cela a permis de montrer que le rapport de taille entre les UCYN-A et leurs algues hôtes est similaire d’une espèce à l’autre.

D’autre part, les chercheurs ont utilisé un modèle informatique pour analyser la croissance de la cellule hôte et de la bactérie par le biais des échanges de nutriments. Ils ont constaté que leurs métabolismes sont parfaitement synchronisés, ce qui leur permettrait de coordonner leur croissance. " C’est exactement ce qui se passe avec les organites ", explique Jonathan Zehr, de l’Université de Californie à Santa Cruz et coauteur des deux études. " Si vous regardez les mitochondries et le chloroplaste, c’est la même chose : ils évoluent avec la cellule ", ajoute-t-il.

Les experts ont également montré que la bactérie UCYN-A repose sur sa cellule hôte pour sa réplication protéique et sa multiplication. Pour ce faire, ils ont utilisé une technique d’imagerie à rayons X et une tomographie permettant d’observer les processus cellulaires en temps réel. " Nous avons montré grâce à l’imagerie à rayons X que le processus de réplication et de division de l’hôte algal et de l’endosymbiote est synchronisé ", indique Carolyn Larabell, du Berkeley Lab.

(Illustrations montrant les algues à différents stades de division cellulaire. UCYN-A, l’entité fixatrice d’azote désormais considérée comme un organite, est visible en cyan ; le noyau des algues est représenté en bleu, les mitochondries en vert et les chloroplastes en violet.)

Une quantification des protéines des deux organismes a aussi été réalisée. Il a été constaté qu’environ la moitié des protéines de l’UCYN-A est synthétisée par sa cellule hôte, qui les marque avec une séquence protéinique spécifique. Ce marquage permet ensuite à la cellule de les envoyer au nitroplaste, qui les importe et les utilise pour son propre métabolisme. " C’est l’une des caractéristiques de quelque chose qui passe d’un endosymbionte à un organite ", explique Zehr. " Ils commencent à éjecter des morceaux d’ADN, et leurs génomes deviennent de plus en plus petits, et ils commencent à dépendre de la cellule mère pour que ces produits génétiques soient transportés dans la cellule ".

Un potentiel pour une production d’azote plus durable

Les chercheurs estiment que les nitroplastes ont évolué il y a environ 100 millions d’années. Comme l’UCYN-A est présente dans presque tous les océans du monde, elle est probablement impliquée dans le cycle de l’azote atmosphérique. Cette découverte pourrait avoir d’importantes implications pour l’agriculture, le procédé industriel utilisé actuellement pour convertir l’azote atmosphérique en ammoniac (procédé Haber-Bosch) étant très énergivore. Ce dernier permet notamment d’assurer 50 % de la production alimentaire mondiale et est responsable d’environ 1,4 % des émissions carbone.

Toutefois, de nombreuses questions restent sans réponse concernant le nitroplaste et son hôte algal. En prochaine étape, les chercheurs prévoient ainsi de déterminer s’il est présent dans d’autres cellules ainsi que les effets que cela pourrait avoir. Cela pourrait permettre d’intégrer directement la fixation de l’azote dans les plantes de sorte à améliorer les récoltes. 



 

Auteur: Internet

Info: https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano·19 avril 2024

[ symbiogénétique ]

 

Commentaires: 0

Ajouté à la BD par miguel