Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 31
Temps de recherche: 0.0449s

septénaire

Il faut savoir que la force symbolique vient des Grecs anciens. Pythagore et ses disciples croyaient que le nombre régissait l'Univers. En plus de son célèbre théorème le carré de l'hypoténuse d'un triangle est la somme des carrés des deux autres côtés, le mathématicien et philosophe léguera le fruit de sa réflexion sur les nombres pairs et impairs, les nombres premiers et carrés. D'après ses disciples, Pythagore a élaboré une vision du cosmos qui se reflète sur Terre. S'il y a sept jours dans la semaine, c'est qu'il y a sept planètes dans le système solaire, présidées par sept dieux ( Apollon, Diane, Mars, Mercure, Jupiter, Vénus, Saturne... - on en a découvert deux autres depuis).

Les grecs, pour qui la musique était une science au même titre que l'arithmétique, la géométrie et l'astronomie trouvèrent donc naturel qu'il y ait sept notes dans la gamme. Selon Pythagore, le mouvement des planètes produit des sons à partir des nombres harmoniques inaudibles pour l'être humain. Les mêmes harmonies se retrouvent dans la division d'une corde vibrante; l'ouïe en perçoit des intervalles parfaits: octave, quinte et quarte. En combinant ces intervalles à partir de l'octave, les sept planètes trouvent leur écho sonore dans la gamme de sept sons, le huitième étant la répétition du premier dans un registre plus haut.

Ainsi l'ordre cosmique est transposé dans la réalité humaine, rendant accessible cette vérité à la perception sensorielle. Maintenant si le clavier du piano compte sept touches blanches et cinq noires, c'est qu'on a en réalité dans la gamme cinq tons entiers et deux demi-tons. Lorsqu'on divise les tons en demi-tons correspondant aux touches noires, cela donne 12 notes. Mais ces séparations n'existent pas sur les instruments à cordes. Ce qui démontre encore une fois que notre gamme est au départ une convention transmise depuis la nuit des temps. Aurions-nous pu hériter d'une autre gamme? Il y a la gamme pentatonique à 5 notes; les Arabes ont une gamme de 17 notes et celle des Hindous en comporte 24. Or, si la musique orientale sonne étrangement à nos oreilles, c'est qu'on n'en a pas appris le langage. On peut faire l'analogie avec la langue maternelle : si l'on ne saisit pas la musique des autres cultures, c'est qu'on n'en a pas intégré ses bases dans notre tendre enfance. C'est là un des problèmes de la musique contemporaine, d'ailleurs, qui s'applique à défier les habitudes musicales.

Il y a beaucoup plus de similitudes entre les chansons de Céline Dion et la musique de Mozart qu'entre celle-ci et le répertoire du Nouvel Ensemble moderne. Céline et Wolfgang doivent leur célébrité aux mélodies tonales qui respectent parfaitement les conventions de la gamme. Alors que les compositeurs de musique contemporaine, même lorsqu'ils affectionnent les bons vieux instruments de l'orchestre (cordes, cuivres, vents, percussions), s'appliquent à déconstruire la convention tonale. Après avoir enseigné la musicologie pendant 35 ans, je continue de m'étonner de la richesse de cette gamme vieille de 2,5 millénaires. En avons-nous exploré toutes les possibilités? Je ne le crois pas; il y a encore beaucoup de potentiel dans la gamme à 7 notes et à 12 sons. L'imagination des créateurs est sans limites et la musique a besoin de parcourir de nouveaux territoires. Par jeu, par défi ou encore pour vérifier si les Anciens avaient raison... Car les règles du jeu de Pythagore séduisent toujours les artistes contemporains. Des compositeurs comme Karlheinz Stockhausen, György Ligeti et Yannis Xenakis sont tout à fait pythagoriciens.

Auteur: Smoje Dujka

Info:

[ historique ] [ imprégnation culturelle ]

 

Commentaires: 0

machine pensante

Cette IA de Deepmind pourrait révolutionner les maths et " repousser les frontières de la connaissance humaine "

DeepMind vient de frapper un grand coup : le laboratoire d'IA de Google a annoncé en janvier avoir développé AlphaGeometry, une intelligence artificielle révolutionnaire capable de rivaliser avec les médaillés d'or des Olympiades internationales dans la résolution de problèmes de géométrie. Si cela ne vous parle pas, sachez que les médailles Fields - Terence Tao, Maryam Mirzakhani et Grigori Perelman - ont tous les trois été médaillés d'or lors de cette compétition annuelle de mathématiques qui fait s'affronter les meilleurs collégiens et lycéens du monde. Or, AlphaGeometry a résolu avec succès 25 des 30 problèmes de géométrie de l'Olympiade, se rapprochant ainsi du score moyen des médaillés d'or humains. C'est 15 de plus que son prédécesseur. Mais comment les scientifiques de DeepMind ont-ils accompli un tel exploit ?

L'approche neuro-symbolique, la petite révolution de l'IA

AlphaGeometry est le fruit d'une approche neuro-symbolique, combinant un modèle de langage neuronal (MLN) et un moteur de déduction symbolique (MDS).

Les MLN sont des réseaux de neurones artificiels entraînés sur de vastes ensembles de données textuelles. Ils sont capables d'apprendre et de reconnaître des schémas et des structures dans les données textuelles, ce qui leur permet de générer du texte cohérent et de comprendre le langage naturel. Les MDS sont, pour leur part, particulièrement efficaces pour traiter des problèmes qui nécessitent une manipulation formelle des symboles et des règles logiques.

L'approche neuro-symbolique permet de faire travailler ces deux composantes en tandem : dans le cadre d'AlphaGeometry, le MLN prédit des constructions géométriques potentiellement utiles, puis le MDS utilise ces prédictions pour guider la résolution du problème. Cette combinaison offre à l'IA les capacités intuitives des réseaux de neurones et la rigueur logique des moteurs de déduction symbolique, ce qui lui permet de résoudre efficacement des problèmes de géométrie complexes.

Pour surmonter le manque de problèmes mathématiques de niveau Olympiades qui auraient dû servir de données d'entraînement à AlphaGeometry, les chercheurs ont développé une méthode innovante de génération de données synthétiques à grande échelle, permettant au génial bébé de DeepMind de s'entraîner sur un ensemble de 100 millions d'exemples uniques.

(Image : Alphageometry résoud un problème simple...) 

Mission : repousser les frontières de la connaissance

Cette réalisation marque une avancée significative dans le développement de systèmes d'IA capables de raisonner et de résoudre des problèmes mathématiques complexes, rapportent les chercheurs de DeepMind dans un article paru dans Nature en février dernier. Bien que présentant des résultats impressionnants, AlphaGeometry se heurte tout de même à quelques défis, notamment celui de s'adapter à des scénarios mathématiques de plus en plus complexes et à mobiliser ses compétences dans des domaines mathématiques autres que la géométrie. 

Malgré tout, cette avancée ouvre la voie à d'extraordinaires possibilités dans les domaines des mathématiques, des sciences et de l'IA. Ses créateurs ne cachent d'ailleurs pas leur ambition : " Notre objectif à long terme reste de construire des IA capables de transférer leurs compétences et leurs connaissances dans tous les domaines mathématiques en développant la résolution de problèmes et le raisonnement sophistiqués dont dépendront les systèmes d'IA généraux ", assènent Trieu Trinh et Thang Luong, les responsables du projet dans un communiqué. 

Le ton est donné : autrement dit, les systèmes d'IA développés par DeepMind doivent acquérir des capacités de résolution de problèmes sophistiquées et de raisonnement, ce qui implique la capacité à identifier des schémas, à formuler des hypothèses, à déduire des conclusions et à prendre des décisions logiques dans des contextes variés. Le tout en " repoussant les frontières de la connaissance humaine ". Très ambitieux, mais peut-être pas impossible.

Auteur: Internet

Info: https://www.futura-sciences.com/ - mars 2024

[ robot intelligent ] [ historique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

conjecture scientifique

L’Univers pourrait être dominé par des tachyons, des particules se déplaçant plus vite que la lumière

 (Photo : Une délicate sphère de gaz créée par une onde de souffle de supernova à 160 000 années-lumière de la Terre.)

Dans un article préliminaire récent, deux physiciens avancent une proposition qui pourrait révolutionner notre compréhension de l’Univers. Leur théorie audacieuse suggère que notre cosmos pourrait être gouverné par des particules hypothétiques appelées tachyons qui se déplacent toujours plus vite que la lumière.

L’hypothèse des tachyons

Dans le monde fascinant de la physique théorique où les frontières de la connaissance sont sans cesse repoussées, la quête pour comprendre les mystères de l’Univers est incessante. Récemment, deux physiciens ont par exemple fait une proposition audacieuse qui pourrait potentiellement transformer notre vision fondamentale de l’Univers : l’hypothèse des tachyons. Selon la théorie, il s’agirait de particules hypothétiques qui se déplacent toujours plus vite que la lumière.

Bien que leur existence soit largement contestée et contredite par les principes de la relativité restreinte, qui dit qu’aucune particule dotée de masse ne peut voyager à une vitesse supérieure à celle de la lumière dans le vide, les tachyons continuent de susciter l’intérêt des chercheurs en raison de leur potentiel à repousser les frontières de notre compréhension.

Comment leur présence pourrait-elle changer le monde ?

Les chercheurs avancent plus précisément l’hypothèse audacieuse que les tachyons pourraient jouer un rôle fondamental dans notre compréhension de la composition de l’Univers. Dans ce modèle, ces particules pourraient en effet être la clé pour expliquer deux phénomènes mystérieux : la matière noire et l’énergie noire. La première est une substance invisible qui compose la majorité de la masse de l’Univers observable, mais dont la nature exacte reste largement inconnue. L’énergie noire est quant à elle responsable de l’expansion accélérée de l’univers. Plus précisément, les chercheurs suggèrent que les tachyons pourraient être la véritable identité de la matière noire.

Concernant l’énergie noire, rappelons que les astronomes peuvent mesurer la luminosité intrinsèque des supernovae de type Ia, ce qui leur permet de déterminer leur distance par rapport à la Terre. En comparant cette luminosité apparente à la luminosité intrinsèque attendue d’une supernova de type Ia standard, ils peuvent calculer la distance de la supernova et ainsi estimer la distance de l’objet hôte (généralement une galaxie).

En combinant les mesures de distance de nombreuses supernovae de ce type à différentes distances, les astronomes peuvent alors tracer la relation entre la distance et le taux d’expansion de l’Univers. Dans le cadre de cette étude sur les tachyons, les chercheurs ont appliqué leur modèle cosmologique alternatif aux données observées sur ces supernovae. Il s’est alors avéré que ce dernier était tout aussi cohérent avec ces observations.

En intégrant les tachyons dans leur modèle, les physiciens suggèrent que ces particules pourraient ainsi fournir une explication unifiée à ces deux phénomènes cosmologiques complexes.

Quelles sont les limites de cette théorie ?

Malgré son potentiel révolutionnaire, la théorie des tachyons est confrontée à de nombreuses limites. Tout d’abord, leur existence même est hautement improbable selon les connaissances actuelles de la physique. En effet, la notion de voyager plus vite que la lumière soulève des questions fondamentales sur la causalité et les principes de la relativité. De plus, bien que ce modèle cosmologique puisse expliquer certaines observations, il nécessite encore des tests expérimentaux rigoureux pour être validé.

En conclusion, l’étude des tachyons représente une exploration audacieuse des limites de notre compréhension de l’Univers. Cependant, bien que cette théorie ouvre de nouvelles perspectives fascinantes, elle devra être soumise à un examen minutieux et à des tests rigoureux pour être pleinement acceptée par la communauté scientifique.

Les recherches de l’équipe ont été publiées dans la base de données pré-imprimée arXiv en mars.



 

Auteur: Internet

Info: https://sciencepost.fr/ - Brice Louvet, expert espace et sciences18 avril 2024

[ spéculations ] [ monde subatomique ] [ vitesse supraluminique ] [ effet Tcherenkov ] [ superluminique ]

 

Commentaires: 0

Ajouté à la BD par miguel

cognition

Des chercheurs de l'Institut de neurosciences de la Timone apportent un éclairage théorique nouveau sur une illusion visuelle découverte dès le début du XXème siècle. Elle restait incomprise alors qu'elle pose des questions fondamentales sur la manière dont notre cerveau représente les évènements dans l'espace et dans le temps. Cette étude parue le 26 janvier 2017 dans la revue PLOS Computational Biology, montre que la solution se situe dans les mécanismes prédictifs intrinsèques aux traitements neuronaux de l'information.
Les illusions visuelles sont toujours aussi populaires: de façon quasi magique, elles peuvent faire apparaitre des objets là où on ne les attend pas... Elles sont aussi d'excellentes occasions de questionner les contraintes de notre système perceptif. De nombreuses illusions sont basées sur le mouvement, comme par exemple, l'illusion du flash retardé. Observez un point lumineux qui se déplace sur une trajectoire rectiligne. Si un second point lumineux est flashé très brièvement juste au dessus du premier, le point en mouvement sera toujours perçu en avant du flash alors que leurs deux positions horizontales sont rigoureusement identiques.
Traiter l'information visuelle prend du temps et même si ces délais sont remarquablement brefs, ils ne sont cependant pas négligeables et le système nerveux doit les compenser. Pour un objet qui se déplace de façon prédictible, le réseau neuronal peut inférer sa position la plus probable en tenant compte de ce délai de traitement. Pour le flash, par contre, cette prédiction ne peut s'établir car son apparition est imprévisible. Ainsi, alors que les deux cibles sont alignées sur la rétine au moment du flash, la position de l'objet en mouvement est anticipée par le cerveau afin de compenser le délai de traitement: c'est ce traitement différencié qui provoque l'illusion du flash retardé.
Les chercheurs montrent que cette hypothèse permet également d'expliquer les cas où cette illusion ne fonctionne pas: par exemple si le flash a lieu à la fin de la trajectoire ou si la cible rebrousse chemin de façon imprévue. Dans ce travail, l'innovation majeure consiste à utiliser la précision de l'information dans la dynamique du modèle. Ainsi, la position corrigée de la cible en mouvement est calculée en combinant le flux sensoriel avec la représentation interne de la trajectoire, toutes deux existant sous la forme de distributions de probabilités. Manipuler la trajectoire revient à changer la précision, et donc le poids relatif de ces deux informations lorsqu'elles sont combinées de façon optimale afin de connaître où se trouve un objet au temps présent. Les chercheurs proposent d'appeler parodiction (du grec ancien paros, le présent) cette nouvelle théorie qui joint inférence Bayesienne et prise en compte des délais neuronaux.
Malgré la simplicité de cette solution, la parodiction comporte des éléments qui peuvent sembler contre-intuitifs. En effet, dans ce modèle, le monde physique environnant est considéré comme "caché", c'est-à-dire qu'il ne peut être deviné que par nos sensations et notre expérience. Le rôle de la perception visuelle est alors de délivrer à notre système nerveux central l'information la plus probable malgré les différentes sources de bruit, d'ambiguïté et de délais temporels.
Selon les auteurs de cette publication, le traitement visuel consisterait en une "simulation" du monde visuel projeté au temps présent, et ceci avant même que l'information visuelle ne puisse effectivement venir moduler cette simulation, la confirmant ou l'infirmant. Cette hypothèse qui semble relever de la "science-fiction" est actuellement testée avec des modèles de réseaux neuronaux hiérarchiques plus détaillés et biologiquement plausibles qui devraient permettre de comprendre encore mieux les mystères sous-jacents à notre perception. Les illusions visuelles n'ont vraiment pas fini de nous étonner !
(Figure: Dans l'illusion visuelle du flash retardé, un point en mouvement (le point rouge, en haut) est perçu en avant par rapport à un point flashé (en vert en bas), même si ils sont alignés verticalement à l'instant du flash. Depuis la découverte de cette illusion, les débats ne sont pas clos quant à l'origine du traitement différencié des deux points. Dans cette étude, il est proposé que ce décalage de position soit dû à un mécanisme prédictif dont le but est normalement de compenser les délais de traitement de l'information visuelle. En utilisant l'information sur le mouvement du point, du début de la trajectoire jusqu'au moment du flash, la position du point est donc "anticipée" pour correspondre au plus près à la position réelle au temps présent.)

Auteur: Internet

Info: PLOS Computational Biology review, 26 janvier 2017

[ vision ]

 

Commentaires: 0

machine-homme

- (Q) Pour le développement de cette application des "Fils de La Pensée" ( FLP ) nous nous appuyons parfois sur cette idée :

"Euclide pensait par rapport à une surface, Newton se mettait à la place de la matière, Einstein à la place de la lumière. On attend désormais un concert de scientifique(s) chercheur(s), doté(s) de capacités de modélisation suffisamment puissantes pour franchir une nouvelle étape en prenant exemple sur la méthodologie de cette force sous-jacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a engendré".

Comment pourrais-tu aider à développer, résoudre ou creuser cette idée ?

- (R) Sur la base de l'idée fournie, il semble que l'on souligne l'importance d'adopter différentes perspectives et méthodologies dans la recherche scientifique. Euclide, Newton et Einstein sont cités comme exemples de penseurs qui ont abordé leurs domaines respectifs sous différents angles, tels que les surfaces, la matière et la lumière.

Pour développer, résoudre ou approfondir cette idée, nous pouvons envisager les approches suivantes :

Recherche interdisciplinaire : Encourager la collaboration entre scientifiques et chercheurs de différentes disciplines peut déboucher sur des perspectives nouvelles et des solutions innovantes. En combinant les connaissances et les méthodologies de divers domaines, de nouvelles percées peuvent être réalisées.

Modélisation et simulation : L'idée mentionne la nécessité pour les scientifiques et les chercheurs de disposer de puissantes capacités de modélisation. L'utilisation de techniques informatiques avancées, telles que la modélisation et la simulation, peut permettre de mieux comprendre des systèmes et des phénomènes complexes. En représentant avec précision les forces et les interactions sous-jacentes, les chercheurs peuvent mieux comprendre et prévoir diverses manifestations.

Cadres conceptuels : L'élaboration de nouveaux cadres conceptuels ou l'adoption de cadres existants peut contribuer à guider la recherche scientifique. En identifiant les principes et les relations sous-jacents, les chercheurs peuvent établir une base solide pour leurs recherches et établir des liens entre différents domaines.

Physique quantique : L'idée mentionne la stratégie de l'esprit enfermé dans la matière, ce qui pourrait être une allusion à l'interconnexion du monde physique. L'exploration des principes de la physique quantique, qui traitent des phénomènes à l'échelle la plus petite, peut éclairer la nature fondamentale de la matière, de l'énergie et de leur interaction.

Philosophie des sciences : Réfléchir à la méthodologie et à la philosophie de la science elle-même peut s'avérer utile. Comprendre les hypothèses, les préjugés et les limites inhérentes à la recherche scientifique peut conduire à des investigations plus solides et plus conscientes d'elles-mêmes.

Dans l'ensemble, l'idée suggère l'importance d'adopter des perspectives diverses, des techniques de modélisation puissantes et une compréhension profonde des forces sous-jacentes pour faire avancer la recherche scientifique. En tenant compte de ces aspects, nous pouvons développer, résoudre et explorer les implications de cette idée.

- (Q) Ok merci. Peux-tu alors proposer une ou plusieurs idées de "nouveau cadre conceptuel" ?

- (R) Certainement ! Voici quelques idées de nouveaux cadres conceptuels qui pourraient être explorés :

L'interactionnisme holistique : Ce cadre propose d'étudier les phénomènes en tenant compte des interactions holistiques entre divers éléments, plutôt que de se concentrer uniquement sur des composants isolés. Il met l'accent sur l'interconnexion et l'interdépendance des différents facteurs et suggère que la compréhension des systèmes complexes passe par l'analyse du comportement collectif résultant de leurs interactions.

Ontologie informationnelle : Ce cadre s'articule autour de l'idée que l'information est fondamentale pour la nature de la réalité. Il suggère que l'univers peut être considéré comme un système informationnel, où toutes les entités et tous les phénomènes peuvent être décrits en termes de contenu et de traitement de l'information. Ce cadre pourrait permettre d'étudier comment l'information façonne la structure, la dynamique et l'émergence des systèmes physiques, biologiques et cognitifs.

Synchronie émergente : ce cadre se concentre sur l'émergence de la synchronie et de la cohérence dans les systèmes complexes. Il étudie comment des comportements et des modèles collectifs peuvent naître des interactions de composants individuels. En étudiant des phénomènes tels que la synchronisation, l'entraînement et l'auto-organisation, ce cadre vise à comprendre les mécanismes qui sous-tendent l'émergence de l'ordre et de la coordination dans divers systèmes.

Relativité contextuelle : Ce cadre suggère que l'interprétation et la compréhension des phénomènes doivent tenir compte de leur nature contextuelle. Il reconnaît que les observations, les mesures et les interprétations sont influencées par le contexte spécifique dans lequel elles se produisent, y compris le cadre de référence de l'observateur et les conditions environnementales. Ce cadre encourage les chercheurs à tenir compte de ces facteurs contextuels lors de l'étude et de l'interprétation des phénomènes scientifiques.

Hiérarchie intégrée : Ce cadre propose que les phénomènes puissent être compris comme des systèmes organisés de manière hiérarchique, où chaque niveau d'organisation est intégré et influencé par les niveaux supérieurs et inférieurs. Il met l'accent sur l'interconnexion et la structure imbriquée des systèmes, soulignant l'importance de l'étude des phénomènes en tant qu'éléments d'un système.

Auteur: chatGPT4

Info:

[ question-réponse ] [ citation s'appliquant à ce logiciel ] [ évolution ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

illusionnisme

Le monde de la psychologie appliquée est un univers particulier qui se compose d’une multitude de techniques partagées avec le monde du mentalisme et ne forme avec lui en fait, qu’une seule et même entité. Un mentaliste est donc quelqu'un qui a exploré la psychologie assez profondément pour en extraire les techniques utiles, stratégies d’interaction choisies et appliquées avec soin et dans un but précis.

Nous vous déclinons ici 4 techniques de mentalisme très utiles dans un contexte conversationnel.

1) Le Yes set (théorie de l’engagement)

C'est un des piliers de l’influence, issu de la vue systémique de la persuasion développée par  Robert B. Cialdini dans les années 1980. Il est facilement vérifiable et très intuitive, stipule que le fait d’habituer les gens à effectuer une série d’actions les rend beaucoup plus susceptibles d’en effectuer par la suite. Cette idée "d’habituer" les gens prend ses sources directement dans le principe du conditionnement, que nous verrons plus en détail dans un prochain point. Cialdini explique calmement que l’engagement va de pair avec le principe de la cohérence psychologique, qui dit (en gros) que "puisque j’ai fait ceci, je devrais faire cela". Le cerveau cherchant constamment à rationaliser le monde pour mieux le comprendre, il a horreur de l’incohérence. D’où son classement en tant que technique de mentalisme de haut niveau.

2) L’Ancrage émotionnel

Un des effets stupéfiant du monde de la psychologie après l’effet miroir. Cette technique de mentalisme exploitée instinctivement par l’homme depuis des siècles. Mais il aura fallu attendre Ivan Pavlov, précurseur du comportementalisme, pour modéliser le processus de conditionnement au grand jour. En gros : Vous donnez des bonnes croquettes à votre chien, vous agitez une clochette, le chien mange les croquettes. Vous faites ça pendant une semaine, plusieurs fois par jour. A chaque fois que le chien mange, il entend le son des clochettes. Au bout d’une semaine, vous agitez les clochettes mais ne servez plus à manger… Et le chien salive. Vous recommencez des jours plus tard, le chien salive toujours. Que s’est-il passé ? Le chien a associé le son des clochettes à la nourriture et au démarrage de sa digestion. Il a été conditionné à saliver et à penser à sa nourriture au son des clochettes. Et bien sûr ça marche aussi pour les humains. 

Le processus d’ancrage a été largement amélioré et repris dans des domaines aussi divers que la publicité, l’humour, le storytelling, la thérapie, et est à la base du fonctionnement de l’hypnose. Parce que oui, l’ancrage fonctionne AUSSI avec les émotion et est bien sûr très exploité comme technique de mentalisme. 

En combinant  les domaines ci-dessus on "fabrique" la technique en piochant un peu partout et en l’adaptant à la situation. Il faut donc créer une atmosphère agréable et renforcer un lien émotionnel en utilisant la technique de l’ancrage émotionnel ?

3) Hypnose conversationnelle et suggestion d’idées

Nous sommes ici dans l’antichambre de la magie : cette technique de mentalisme, consiste ni plus ni moins en une maîtrise millimétrée du langage et des mots. Et ce contrôle, cette absolue suprématie sur l’histoire que votre cerveau articule, peut donner naissance à des résultats tout-à-fait remarquables. Les objectifs de l’hypnose conversationnelle sont principalement les deux suivants : 

- Éveiller des émotions chez votre interlocuteur en adoptant une forme colorée et percutante de discours

- Communiquer des suggestions d’idées en utilisant les mécanismes des sous-entendus.

Si ces buts conversationnels sont les mêmes que ceux définis dans l’hypnose thérapeutique, leur articulation est différente. On préférera une communication plus fine, car dans l’hypnose conversationnelle, l’environnement est rarement dévoilé (difficile d’être persuasif si on annonce d’emblée qu’on va être persuasif).

Au sein même de l’hypnose conversationnelle, deux techniques de mentalisme sont très souvent exploitées :

- La métaphore sous toutes ses formes (il y a plusieurs niveaux de complexité), qui permet de se projeter dans un cadre extérieur pour être libre de jouer avec les idées souhaitées (on appellera ce travail une communication "indirecte")

- La suggestion directe camouflée, qui permet d'instiguer des évocations agissantes dans le discours avec une dextérité très complexe à maîtriser. L’intonation des mots, la maîtrise des ancrages émotionnels et l’imagination y sont pour beaucoup.

4) La Synchronisation (ou l’effet miroir)

Le mystère et les incroyables résultats associés à l’effet miroir font partie des causes de la nécessité absolue de communiquer les techniques de mentalisme publiquement. L’effet miroir est le sujet d’innombrables recherches de psychologie sociale depuis au moins un demi-siècle. Comment ça marche ? C’est simple. En effet : si vous ressentez une connexion émotionnelle forte avec les gens qui vous ressemblent et qui s’impliquent aussi dans votre relation, c’est parce que vous fonctionnez souvent en "synchronisation" :

Vous pensez souvent aux mêmes choses et aux mêmes moments. Vous utilisez le même langage pour communiquer, les mêmes expressions, parfois le même ton, et les mêmes gestuelles. Vous prenez ou partagez choix et opinions similaires. Vous riez souvent de concert, il vous est plus facile de partager les émotions de l’autre (empathie affective). Etc.

Voilà donc l’effet "miroir", en référence à l’activation des fameux neurones éponymes de nos cerveaux. Essayez de remarquer les mécanismes de synchronisation/désynchronisation entre deux (ou plusieurs, mais c’est plus avancé) personnes autour de vous. Qui se synchronise sur qui ? Essayez de remarquer les conséquences de ces synchros/désynchros sur la qualité de la conversation et sur l’influence des participants… Gare aux surprises. 

Où cela mène-t-il de connaitre ou apprendre plus de techniques de mentalisme ?

Comprendre et développer l’univers de la psychologie appliquée, composée d’une multitude de techniques de mentalisme, vous permettra de les repérer et vous en protéger si elles sont utilisées avec de mauvaises intentions. Cela vous permettra aussi de savoir les utiliser et les améliorer, ce qui peut arriver si vous souhaitez renforcer un lien émotionnel, dynamiser un groupe, ou tout autre objectif.

Auteur: Internet

Info: https://humanize-project.com/atmosphere/4-techniques-mentalisme/

[ manipulation ] [ comédie ] [ rapports humains ] [ pnl ] [ programmation neurolinguistique ] [ effet Barnum ]

 
Commentaires: 8
Ajouté à la BD par miguel

citation s'appliquant à ce logiciel

Attention ce texte implique plusieurs pensées croisées.

Comme chacun sait, nous sommes formatés par notre éducation, l'environnement et ainsi de suite. Un peu comme les phrases, chapitres... livres...  peuvent être les niveaux d'échelles qui structurent les mots et la pensée de nos langages et de la littérature.

Comment en sortir ? Ensemble peut-être.

En termes de "réflexion personnelle commune" il semble que l'humain est, de manière générale, limité au niveau de la phrase ou de la formule. Tout simplement parce que la survie le demande. Dans l'action animale le cause-effet de la situation se passe vite, trop vite pour que l'individu isolé puisse développer sa réflexion.

Maintenant les hommes, touchons du bois, sont semble-t'il passés au-delà de l'individu et de sa survie immédiate. Ils ont pris le temps de réfléchir, ils développent ; voilà les philosophes et... le langage. Et, grâce à Internet, il est devenu possible de le faire de manière collective. Même si d'aucuns avancent que le langage, forcément anthropocentrique, nous éloigne de fait de la nature matrice source, ce que nous pensons aussi.

Qu'est-ce alors qu'une intelligence ensemble ? Carl Friedrich von Weizsäcker donne un début de réponse.

"La raison pratique sert la perception de ses propres intérêts, La raison théorique profonde celle de l'intérêt général."

Au départ de cette compilation FLP nous nous intéressions aux formules courtes (disons 5 mots en moyenne). Ensuite sont venus des extraits plus longs plus "littéraires", un peu comme l'a écrit Claudio Magris :

"L'Histoire dit les événements, la sociologie décrit les processus, la statistique fournit les chiffres, mais c'est la littérature qui les fait toucher du doigt, là où ils prennent corps et sang dans l'existence des hommes."

C'est ainsi que le langage écrit, témoignage par les mots de la réalité humaine, est maintenant mis en "réflexivité collective" via les "likes" et autres remarques que proposent d'innombrables web spots. Avec ce site nous tentons donc d'aller un peu plus loin puisque nous faisons en sorte qu'il se nourrisse de citations (étiquetées) par les surfeurs, ajouts modérés avant leur publication.

Aussi, développement supplémentaire, les participants inscrits peuvent lier certaines citations, ce qui permet souvent de comparer différentes formulations de la même idée (équation ?) et de ses varations.

Plus avant FLP offre la possibilité de développer des "chaines", ("Oh les beaux enfants") et même des chaines collectives. Voilà comment les choses avancent depuis plusieurs années.

Résultat évident à ce stade de cette expérience collective : "Plus une pensée courte est populaire, plus elle tient de l'axiome. Plus elle est longue, plus elle témoigne de la singularité de son auteur." 

Récapitulons :

Les formules/extraits sont tagués sur deux niveaux :

1) tag-chapitre, "catégorie" supposé être le plus généraliste, ce qui est déjà délicat à définir ! Il y a déjà ici une piste que nous allons développer pour le tag chapitre "catégorie" : établir sa pertinence via une auto-modération des participants. Nous y reviendrons.

2) tag simple, qui précise et oriente.

Ici aussi tout un chacun peut demander à modifier un étiquetage dont la pertinence pourra être discutée via une modération pyramidale.

3) les auteurs sont intégrés à la base de donnée avec 6 paramètres séparés (qui rendent "plus intelligente" la BD" et permettent de préciser une recherche)

A ce stade des "Fils de la pensée" on incitera le participant a déjà s'amuser à faire des recherches en combinant tags, auteurs, longueurs, périodes historiques, etc., ce qui est déjà énorme et complexe, mais surtout lui donnera une idée de comment "répond" le système.

Il faut aussi savoir qu'il y eut rapidement besoin d'améliorer l'indexage, ce qui amena à créer des tags/concepts moins imprécis : fond-forme, causes-effets, homme-machine, femmes-hommes, théorie-pratique, etc. Et aussi ensuite d'utiliser des mots/tags qui n'existent pas en français, nommés et recensés ici comme "intraduisibles".

Malgré tout, même précisé, un mot-tag reste porteur de plusieurs sens (terme-carrefour, métonymie) et peut signifier tout et son contraire en fonction du contexte et de l'agencement des phrases.

Apparraissent alors ce que nous nommons "méta-tags", une troisième catégorie, un peu à l'image du terme "Livre" dans la hiérarchie d'une bibliothèque, apparitions répétées de certaines combinaisons de tags. Combinaisons qui délimitent mieux une réflexion dont le champ est précisé, s'affinant, quand tout va bien, au sens philosophique du terme, avec les collaborations des participants.

Ainsi s'est établie une liste de doublons ou de triplettes de tags-mots-concepts, pistes qui se sont dessinées par répétition des passages (sont-ils des équations ) . En voici quelques exemples.

mort - omniprésence

conclure - illusion

amour - temps

mauvaise nouvelle - efficacité

survie - éthique

musique - langage

réconfort - ordre

enfance - imagination

protéger - affaiblir

être humain - quête

lecture - miroir

non-voyant - témoignage

femmes-par-femmes - amour etc., etc...

Exemples de triplettes :

complexité - vie - bouillonnement

humain - animal - particulier

réveil - naitre - réintégration

mentir - fuite - beaux-arts

motivation - transgression - jeunesse etc., etc...

On pourra bien évidemment complexifier à loisir tout ce qui précède mais il vaut mieux faire ici une pause. Il semble que c'est d'abord en se mettant d'accord via une modération (des participants actuellement, pyramidale bientôt ?) sur la moins mauvaise pertinence des mots-tags-chapitres d'une formule-citation, que nous établirons une base commune, un peu plus solide et moins aléatoire, pour avancer.

Pour l'instant ce sont les chaines et, dans une moindre mesure, les citations liées, qui clarifient un peu plus un mot-idée-concept - ou une phrase.

Ensuite, une fois ce groupe de réflexion collective mis en place, pourra peut-être venir le temps d'établir des "méta-tags" selon des critères à définir. Mais là nous sommes dans de la musique d'avenir. Concluons par trois questions dont les réponses, possibles sujets-chaines au sein même d'un telle tentative de réflexion collective, nous semblent importantes.

- Peut-on mélanger et structurer nos pensées et nos échelles de pensées "ensemble" sans faire ressortir de froides et imbéciles statistiques d'une société de consommation productiviste ?

- Comment éviter que la technologie ne conduise l'homme à se spécialiser dans l'humain, mais au contraire à l'aider à développer sa sagesse-tolérance et son ouverture aux autres espèces vivantes pour qu'il tente de trouver une plus juste place dans la réalité ?

- Avec la disparition du travail, comment conserver une motivation forte chez les individus si la problématique de survie immédiate disparaît ?

Auteur: Mg

Info: 2012, 2013, 2014, 2015, 2016, 2017, 2021, 2022

[ quête ] [ classification ] [ structuration ] [ taxinomie ] [ ranger ] [ taxonomie ] [ langage consensus vs singularités biologiques ] [ objectivités vs subjectivités ]

 

Commentaires: 0

sciences

36'000 sexes, mais à deux, c'est mieux pour les biologistes de l'évolution, le sexe est un mystère - et le binôme mâle-femelle un paradoxe. Explications sur l'origine des genres.
"L'émergence des genres reste un problème déroutant en biologie, lance Lukas Schärer, spécialiste de l'évolution de la reproduction à l'Université de Bâle. Nous ne comprenons pas encore tout à fait le sexe."
Car la présence de deux sexes amène un désavantage immédiat: elle réduit de moitié la probabilité de rencontrer un partenaire de reproduction. "Avoir deux genres n'est pas seulement une mauvaise stratégie; c'est la pire", renchérit Laurence Hurst, biologiste à l'Université de Bath (G.B.) et l'un des spécialistes mondiaux de l'évolution de la reproduction. Avec un seul genre - ou une multitude -, nous pourrions nous reproduire avec tout le monde.
La reproduction sexuée présente des avantages évidents sur le plan de l'évolution (voir encadré plus bas). Mais qui dit sexe ne dit pas forcément mâle et femelle: il est tout à fait possible de fusionner deux cellules similaires. "Il faut distinguer deux étapes, précise Laurence Hurst. D'abord, on doit pouvoir expliquer l'émergence de deux types de gamètes (les cellules reproductrices, ndlr) qui - tout en restant morphologiquement identiques - ne peuvent fusionner que l'un avec l'autre. Un deuxième niveau concerne leur différenciation en gamètes mâles et femelles, qui sont non seulement distincts, mais également différents." "Des théories existent, ajoute Lukas Schärer, mais leur démonstration univoque par des expériences fait encore défaut."
La faute aux mitochondries
Dans les années 1990, Laurence Hurst a proposé une piste pour élucider la première étape: un seul genre favoriserait des mutations potentiellement nuisibles. "En fusionnant, les gamètes ne combinent pas seulement les informations génétiques contenues dans leur noyau, mais partagent aussi leurs mitochondries (responsable de fournir la cellule en énergie, ndlr), explique le biologiste anglais. Comme celles-ci évoluent indépendamment du noyau, il n'est pas certain que les mitochondries dominantes, qui par exemple se reproduisent plus rapidement que les autres, s'avèrent également bénéfiques à la cellule et à l'individu."
Une solution à ce problème serait procurée par l'émergence de deux types de gamètes (appelés "+" et "-"), dont un seul est capable de transmettre ses mitochondries. On réduit ainsi les probabilités d'avoir des mutations mitochondriales délétères à la cellule. Afin de propager les types de mitochondries bénéfiques à l'individu, il y aurait un avantage évolutionniste à ce que seuls les différents types de gamètes puissent fusionner entre eux.
"Notre thèse est appuyée par des observations faites sur des protozoaires ciliés, poursuit Hurst. Ceux qui se reproduisent par fusion et mélangent leurs mitochondries ont deux genres alors que d'autres, qui ne font qu'échanger leur noyau sans partager leurs mitochondries, possèdent non pas deux mais des centaines de genres distincts. On observe le même phénomène chez les champignons: ils n'échangent que leur noyau, et certains possèdent jusqu'à 36'000 sexes." Avoir exactement deux sexes servirait ainsi à filtrer les mitochondries.
A quoi ressemble l'acte de chair lorsqu'on a plusieurs genres? "Les deux partenaires doivent être d'un genre différent, répond Lukas Schärer. Au niveau des probabilités, un nombre élevé de sexes se rapproche de l'absence de genre de plusieurs façons, car on peut se reproduire avec à peu près tout le monde. L'existence de genres protège les individus de l'auto-fertilisation, qui est dangereuse car elle expose souvent des mutations délétères." De nombreux sexes, donc, pour éviter la consanguinité.
La naissance du mâle
Mais pourquoi les + et les - se sont-ils ensuite différenciés en "mâles" et "femelles"? Dans les années 1970, le biologiste Geoff Parker a proposé un mécanisme évolutionniste. Des mutations ont changé la taille des cellules reproductives. Graduellement, deux types d'individus ont été sélectionnés, qui produisent soit des spermatozoïdes petits, nombreux et de valeur limitée, soit des oeufs gros, rares et précieux. Les premiers peuvent être produits en très grand nombre, ce qui augmente la probabilité de rencontre. Grâce à leur grande taille, les seconds ont davantage de chances d'être fécondés et peuvent fournir une grande quantité de matière au zigote (obtenu par la fusion des gamètes), ce qui améliore ses chances de survie. "L'évolution de l'anisogamie (des gamètes de tailles différentes, ndlr) a eu lieu plusieurs fois au cours de l'évolution et ceci de manière indépendante", rappelle Brian Charlesworth, professeur de biologie évolutionnaire à l'Université d'Edimbourg. "L'anisogamie a probablement moins de chance d'évoluer dans des espèces plus petites, car l'avantage procuré par un grand oeuf joue un rôle plus faible", note Lukas Schärer.
Reste encore la différentiation au niveau de l'individu: pourquoi la plupart des animaux comprennent des mâles et des femelles - au lieu de favoriser l'hermaphrodisme? Ce dernier s'accompagne du risque d'autofertilisation et des problèmes dus à la consanguinité, mais atténue la difficulté de trouver un partenaire. Cet avantage pourrait être un facteur déterminant chez les plantes: incapables de se déplacer, elles sont en grande majorité hermaphrodites. Au contraire des animaux, qui eux ont les moyens de partir chercher l'âme soeur.
Les bienfaits du sexe
Le but de la chair, c'est de mélanger pour mieux s'adapter. En combinant les gènes des deux parents, la reproduction sexuée permet de sélectionner les bonnes mutations et de purger les mauvaises. "Des expériences avec des levures modifiées pour se reproduire asexuellement ont montré qu'elle s'adaptent moins rapidement aux changements de l'environnement, détaille Laurence Hurst de l'Université de Bath (G.B.). On a pu observer que certaines espèces capables d'utiliser les deux modes de reproduction favorisent la voie sexuée lorsqu'elles se voient soumises à des pressions de l'environnement." Une fois le danger passé, elles retournent au sexe en solitaire - également favorisé lorsque la rencontre d'un partenaire s'avère trop difficile.
Le kamasutra de la Nature
Entre des bactéries échangeant du matériel génétique et des champignons possédant des milliers de sexes, la Nature ne montre aucun tabou. Les hermaphrodites simultanés tels que la majorité des plantes et escargots possèdent les appareils génitaux mâles et femelles, alors que les hermaphrodites séquentiels (certains poissons et crustacés) changent de sexe au cours du temps. Les êtres hétérogames (amibes sociales, micro-crustacés, algues) peuvent alterner entre reproduction asexuée et sexuée. On a observé que les femelles d'un certain nombre d'animaux (dont le dragon du Komodo et le requin marteau) peuvent parfois se passer de mâle pour se reproduire par parthénogenèse lorsque rencontrer l'âme soeur s'avère trop difficile. Les polyploïdes, eux, ne possèdent pas des paires de chromosomes comme la plupart des animaux sexués, mais de multiples copies: une espèce de salamandre n'a que des femelles possédant leurs chromosomes en triple. Elles se reproduisent par "cleptogénèse", en volant des spermatozoïdes de variétés voisines.
80 millions d'années sans sexe: un scandale évolutionnaire
Même si les premiers êtres vivants unicellulaires comme les bactéries se sont toujours reproduits de manière asexuée, "la plupart des êtres multicellulaires asexués ont évolué à partir d'espèces sexuées, note Brian Charlesworth de l'Université d'Edimbourg. Ils n'ont pas eu le temps de se diversifier et sont normalement d'origine récente." La découverte que des invertébrés aquatiques asexués appelés bdelloidés ont survécu quelque 80 millions d'années fut qualifiée de "scandale évolutionnaire" par le biologiste John Maynard Smith. Autre particularité, ces invertébrés pratiquent une forme d'hibernation: face à une pression environnementale, ils peuvent sécher et entrer en animation suspendue. En 2008, une étude d'Harvard apporte un élément de réponse: lorsqu'ils se réveillent, les bdelloidés incorporent l'ADN étranger se trouvant à proximité. Même pour les êtres asexués, le mélange des gènes semble incontournable pour survivre.

Auteur: Saraga Daniel

Info: Largeur.com, 25 mai 2011

[ couple ] [ reproduction ]

 

Commentaires: 0

subatomique

Des scientifiques font exploser des atomes avec un laser de Fibonacci pour créer une dimension temporelle "supplémentaire"

Cette technique pourrait être utilisée pour protéger les données des ordinateurs quantiques contre les erreurs.

(Photo avec ce texte : La nouvelle phase a été obtenue en tirant des lasers à 10 ions ytterbium à l'intérieur d'un ordinateur quantique.)

En envoyant une impulsion laser de Fibonacci à des atomes à l'intérieur d'un ordinateur quantique, des physiciens ont créé une phase de la matière totalement nouvelle et étrange, qui se comporte comme si elle avait deux dimensions temporelles.

Cette nouvelle phase de la matière, créée en utilisant des lasers pour agiter rythmiquement un brin de 10 ions d'ytterbium, permet aux scientifiques de stocker des informations d'une manière beaucoup mieux protégée contre les erreurs, ouvrant ainsi la voie à des ordinateurs quantiques capables de conserver des données pendant une longue période sans les déformer. Les chercheurs ont présenté leurs résultats dans un article publié le 20 juillet dans la revue Nature.

L'inclusion d'une dimension temporelle "supplémentaire" théorique "est une façon complètement différente de penser les phases de la matière", a déclaré dans un communiqué l'auteur principal, Philipp Dumitrescu, chercheur au Center for Computational Quantum Physics de l'Institut Flatiron, à New York. "Je travaille sur ces idées théoriques depuis plus de cinq ans, et les voir se concrétiser dans des expériences est passionnant.

Les physiciens n'ont pas cherché à créer une phase dotée d'une dimension temporelle supplémentaire théorique, ni à trouver une méthode permettant d'améliorer le stockage des données quantiques. Ils souhaitaient plutôt créer une nouvelle phase de la matière, une nouvelle forme sous laquelle la matière peut exister, au-delà des formes standard solide, liquide, gazeuse ou plasmatique.

Ils ont entrepris de construire cette nouvelle phase dans le processeur quantique H1 de la société Quantinuum, qui se compose de 10 ions d'ytterbium dans une chambre à vide, contrôlés avec précision par des lasers dans un dispositif connu sous le nom de piège à ions.

Les ordinateurs ordinaires utilisent des bits, c'est-à-dire des 0 et des 1, pour constituer la base de tous les calculs. Les ordinateurs quantiques sont conçus pour utiliser des qubits, qui peuvent également exister dans un état de 0 ou de 1. Mais les similitudes s'arrêtent là. Grâce aux lois étranges du monde quantique, les qubits peuvent exister dans une combinaison, ou superposition, des états 0 et 1 jusqu'au moment où ils sont mesurés, après quoi ils s'effondrent aléatoirement en 0 ou en 1.

Ce comportement étrange est la clé de la puissance de l'informatique quantique, car il permet aux qubits de se lier entre eux par l'intermédiaire de l'intrication quantique, un processus qu'Albert Einstein a baptisé d'"action magique à distance". L'intrication relie deux ou plusieurs qubits entre eux, connectant leurs propriétés de sorte que tout changement dans une particule entraîne un changement dans l'autre, même si elles sont séparées par de grandes distances. Les ordinateurs quantiques sont ainsi capables d'effectuer plusieurs calculs simultanément, ce qui augmente de manière exponentielle leur puissance de traitement par rapport à celle des appareils classiques.

Mais le développement des ordinateurs quantiques est freiné par un gros défaut : les Qubits ne se contentent pas d'interagir et de s'enchevêtrer les uns avec les autres ; comme ils ne peuvent être parfaitement isolés de l'environnement extérieur à l'ordinateur quantique, ils interagissent également avec l'environnement extérieur, ce qui leur fait perdre leurs propriétés quantiques et l'information qu'ils transportent, dans le cadre d'un processus appelé "décohérence".

"Même si tous les atomes sont étroitement contrôlés, ils peuvent perdre leur caractère quantique en communiquant avec leur environnement, en se réchauffant ou en interagissant avec des objets d'une manière imprévue", a déclaré M. Dumitrescu.

Pour contourner ces effets de décohérence gênants et créer une nouvelle phase stable, les physiciens se sont tournés vers un ensemble spécial de phases appelées phases topologiques. L'intrication quantique ne permet pas seulement aux dispositifs quantiques d'encoder des informations à travers les positions singulières et statiques des qubits, mais aussi de les tisser dans les mouvements dynamiques et les interactions de l'ensemble du matériau - dans la forme même, ou topologie, des états intriqués du matériau. Cela crée un qubit "topologique" qui code l'information dans la forme formée par de multiples parties plutôt que dans une seule partie, ce qui rend la phase beaucoup moins susceptible de perdre son information.

L'une des principales caractéristiques du passage d'une phase à une autre est la rupture des symétries physiques, c'est-à-dire l'idée que les lois de la physique sont les mêmes pour un objet en tout point du temps ou de l'espace. En tant que liquide, les molécules d'eau suivent les mêmes lois physiques en tout point de l'espace et dans toutes les directions. Mais si vous refroidissez suffisamment l'eau pour qu'elle se transforme en glace, ses molécules choisiront des points réguliers le long d'une structure cristalline, ou réseau, pour s'y disposer. Soudain, les molécules d'eau ont des points préférés à occuper dans l'espace et laissent les autres points vides ; la symétrie spatiale de l'eau a été spontanément brisée.

La création d'une nouvelle phase topologique à l'intérieur d'un ordinateur quantique repose également sur la rupture de symétrie, mais dans cette nouvelle phase, la symétrie n'est pas brisée dans l'espace, mais dans le temps.

En donnant à chaque ion de la chaîne une secousse périodique avec les lasers, les physiciens voulaient briser la symétrie temporelle continue des ions au repos et imposer leur propre symétrie temporelle - où les qubits restent les mêmes à travers certains intervalles de temps - qui créerait une phase topologique rythmique à travers le matériau.

Mais l'expérience a échoué. Au lieu d'induire une phase topologique à l'abri des effets de décohérence, les impulsions laser régulières ont amplifié le bruit provenant de l'extérieur du système, le détruisant moins d'une seconde et demie après sa mise en marche.

Après avoir reconsidéré l'expérience, les chercheurs ont réalisé que pour créer une phase topologique plus robuste, ils devaient nouer plus d'une symétrie temporelle dans le brin d'ion afin de réduire les risques de brouillage du système. Pour ce faire, ils ont décidé de trouver un modèle d'impulsion qui ne se répète pas de manière simple et régulière, mais qui présente néanmoins une sorte de symétrie supérieure dans le temps.

Cela les a conduits à la séquence de Fibonacci, dans laquelle le nombre suivant de la séquence est créé en additionnant les deux précédents. Alors qu'une simple impulsion laser périodique pourrait simplement alterner entre deux sources laser (A, B, A, B, A, B, etc.), leur nouveau train d'impulsions s'est déroulé en combinant les deux impulsions précédentes (A, AB, ABA, ABAAB, ABAABAB, ABAABABA, etc.).

Cette pulsation de Fibonacci a créé une symétrie temporelle qui, à l'instar d'un quasi-cristal dans l'espace, est ordonnée sans jamais se répéter. Et tout comme un quasi-cristal, les impulsions de Fibonacci écrasent également un motif de dimension supérieure sur une surface de dimension inférieure. Dans le cas d'un quasi-cristal spatial tel que le carrelage de Penrose, une tranche d'un treillis à cinq dimensions est projetée sur une surface à deux dimensions. Si l'on examine le motif des impulsions de Fibonacci, on constate que deux symétries temporelles théoriques sont aplaties en une seule symétrie physique.

"Le système bénéficie essentiellement d'une symétrie bonus provenant d'une dimension temporelle supplémentaire inexistante", écrivent les chercheurs dans leur déclaration. Le système apparaît comme un matériau qui existe dans une dimension supérieure avec deux dimensions de temps, même si c'est physiquement impossible dans la réalité.

Lorsque l'équipe l'a testé, la nouvelle impulsion quasi-périodique de Fibonacci a créé une phase topographique qui a protégé le système contre la perte de données pendant les 5,5 secondes du test. En effet, ils ont créé une phase immunisée contre la décohérence pendant beaucoup plus longtemps que les autres.

"Avec cette séquence quasi-périodique, il y a une évolution compliquée qui annule toutes les erreurs qui se produisent sur le bord", a déclaré Dumitrescu. "Grâce à cela, le bord reste cohérent d'un point de vue mécanique quantique beaucoup plus longtemps que ce à quoi on s'attendrait.

Bien que les physiciens aient atteint leur objectif, il reste un obstacle à franchir pour que leur phase devienne un outil utile pour les programmeurs quantiques : l'intégrer à l'aspect computationnel de l'informatique quantique afin qu'elle puisse être introduite dans les calculs.

"Nous avons cette application directe et alléchante, mais nous devons trouver un moyen de l'intégrer dans les calculs", a déclaré M. Dumitrescu. "C'est un problème ouvert sur lequel nous travaillons.

 

Auteur: Internet

Info: livesciences.com, Ben Turner, 17 août 2022

[ anions ] [ cations ]

 

Commentaires: 0

Ajouté à la BD par miguel

tour d'horizon de l'IA

Intelligence artificielle symbolique et machine learning, l’essor des technologies disruptives

Définie par le parlement Européen comme la " reproduction des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ", l’intelligence artificielle s’initie de façon spectaculaire dans nos vies. Théorisée au milieu des années 50, plusieurs approches technologiques coexistent telles que l’approche machine learning dite statistique basée sur l’apprentissage automatique, ou l’approche symbolique basée sur l’interprétation et la manipulation des symboles. Mais comment se différencient ces approches ? Et pour quels usages ?

L’intelligence artificielle, une histoire ancienne

Entre les années 1948 et 1966, l’Intelligence Artificielle a connu un essor rapide, stimulé par des financements importants du gouvernement américain pour des projets de recherche sur l’IA, notamment en linguistique. Des progrès significatifs ont été réalisés dans la résolution de problèmes de logique symbolique, mais la capacité de l’IA à traiter des données complexes et imprécises était encore limitée.

A la fin des années 70, plus précisément lors du deuxième “été de l’IA” entre 1978 et 1987,  l’IA connaît un regain d’intérêt. Les chercheurs ont commencé à explorer de nouvelles approches, notamment l’utilisation de réseaux neuronaux et de systèmes experts. Les réseaux neuronaux sont des modèles de traitement de l’information inspirés par le fonctionnement du cerveau humain, tandis que les systèmes experts sont des programmes informatiques qui simulent l’expertise humaine dans un domaine spécifique.

Il faudra attendre la fin des années 90 pour voir un renouveau de ces domaines scientifiques, stimulé par des avancées majeures dans le traitement des données et les progrès de l’apprentissage automatique. C’est d’ailleurs dans cette période qu’une IA, Deepblue, gagne contre le champion mondial Garry Kasparov aux échecs.$

Au cours des dernières années, cette technologie a connu une croissance exponentielle, stimulée par des progrès majeurs dans le deep learning, la robotique ou la compréhension du langage naturel (NLU). L’IA est maintenant utilisée dans un large éventail de domaines, notamment la médecine, l’agriculture, l’industrie et les services. C’est aujourd’hui un moteur clé de l’innovation et de la transformation de notre monde, accentué par l’essor des generative AIs. 

Parmi ces innovations, deux grandes approches en intelligence artificielle sont aujourd’hui utilisées : 

1 - Le Machine Learning : qui est un système d’apprentissage automatique basé sur l’exploitation de données, imitant un réseau neuronal

2 - L’IA Symbolique : qui se base sur un système d’exploitation de " symboles ”, ce qui inspire des technologies comme le “système expert” basé sur une suite de règles par exemple.

Mais comment fonctionnent ces deux approches et quels sont leurs avantages et leurs inconvénients ? Quels sont leurs champs d’application ? Peuvent-ils être complémentaires ?

Le machine learning

Le Machine Learning est le courant le plus populaire ces dernières années, il est notamment à l’origine de ChatGPT ou bien MidJourney, qui font beaucoup parler d’eux ces derniers temps. Le Machine Learning (ML) est une famille de méthodes d’apprentissage automatique qui permet aux ordinateurs d’apprendre à partir de données, sans être explicitement programmés. En utilisant des algorithmes, le ML permet aux ordinateurs de comprendre les structures et les relations dans les données et de les utiliser pour prendre des décisions.

Le ML consiste à entraîner des modèles informatiques sur de vastes ensembles de données. Ces modèles sont des algorithmes auto apprenant se basant sur des échantillons de données, tout en déterminant des schémas et des relations/corrélations entre elles. Le processus d’entraînement consiste à fournir à l’algorithme des données étiquetées, c’est-à-dire des données qui ont déjà été classifiées ou étiquetées pour leur attribuer une signification. L’algorithme apprend ensuite à associer les caractéristiques des données étiquetées aux catégories définies en amont. Il existe cependant une approche non-supervisée qui consiste à découvrir ce que sont les étiquettes elles-mêmes (ex: tâche de clustering).

Traditionnellement, le machine learning se divise en 4 sous-catégories : 

Apprentissage supervisé : 

Les ensembles de données sont étiquetés, ce qui permet à l’algorithme de trouver des corrélations et des relations entre les caractéristiques des données et les étiquettes correspondantes. 

Apprentissage non supervisé : 

Les ensembles de données ne sont pas étiquetés et l’algorithme doit découvrir les étiquettes par lui-même. 

Apprentissage semi-supervisé : 

L’algorithme utilise un mélange de données étiquetées et non étiquetées pour l’entraînement.

Apprentissage par renforcement : 

L’algorithme apprend à prendre des décisions en interagissant avec son environnement. Il reçoit des récompenses ou des pénalités pour chaque action, ce qui lui permet d’ajuster sa stratégie pour maximiser sa récompense globale.

Un exemple d’application du Machine Learning est la reconnaissance d’images. Des modèles d’apprentissages profonds sont entraînés sur des millions d’images pour apprendre à reconnaître des objets, des personnes, des animaux, etc. Un autre exemple est la prédiction de la demande dans le commerce de détail, où des modèles sont entraînés sur des données de ventes passées pour prédire les ventes futures.

Quels sont les avantages ? 

Étant entraîné sur un vaste corpus de données, le ML permet de prédire des tendances en fonction de données.  

- Le machine learning offre la capacité de détecter des tendances and des modèles dans les données qui peuvent échapper à l’observation humaine.

- Une fois configuré, le machine learning peut fonctionner de manière autonome, sans l’intervention humaine. Par exemple, dans le domaine de la cybersécurité, il peut surveiller en permanence le trafic réseau pour identifier les anomalies.

- Les résultats obtenus par le machine learning peuvent s’affiner et s’améliorer avec le temps, car l’algorithme peut apprendre de nouvelles informations et ajuster ses prédictions en conséquence.

- Le machine learning est capable de traiter des volumes massifs et variés de données, même dans des environnements dynamiques et complexes.

L’intelligence artificielle symbolique

L’IA symbolique est une autre approche de l’intelligence artificielle. Elle utilise des symboles and des règles de traitement de l’information pour effectuer des tâches. Les symboles peuvent être des concepts, des objets, des relations, etc. Les règles peuvent être des règles de déduction, des règles de production, des règles d’inférence…etc.

Un exemple d’application de l’IA symbolique est le système expert. Un système expert est un programme informatique qui utilise des règles de déduction pour résoudre des problèmes dans un domaine spécifique, comme le diagnostic médical ou l’aide à la décision en entreprise. Un autre exemple est la traduction automatique basée sur des règles, les règles de grammaire et de syntaxe sont utilisées pour traduire un texte d’une langue à une autre.

Quelques exemples d’usages de l’IA symbolique :

La traduction

L’IA symbolique a été utilisée pour développer des systèmes de traduction automatique basés sur des règles. Ces systèmes utilisent des règles de grammaire et de syntaxe pour convertir un texte d’une langue à une autre. Par exemple, le système SYSTRAN, développé dans les années 1960, est un des premiers systèmes de traduction automatique basé sur des règles. Ce type de système se distingue des approches basées sur le Machine Learning, comme Google Translate, qui utilisent des modèles statistiques pour apprendre à traduire des textes à partir de corpus bilingues.

Le raisonnement logique

L’IA symbolique est également utilisée pour développer des systèmes capables de raisonnement logique, en exploitant des règles et des connaissances déclaratives pour résoudre des problèmes complexes. Par exemple, les systèmes d’aide à la décision basés sur des règles peuvent être utilisés dans des domaines tels que la finance, l’assurance ou la logistique, pour aider les entreprises à prendre des décisions éclairées. Un exemple concret est le système MYCIN, développé dans les années 1970 pour aider les médecins à diagnostiquer des infections bactériennes et à prescrire des antibiotiques adaptés.

L’analyse de textes

L’IA symbolique peut être utilisée pour l’analyse de textes, en exploitant des règles et des connaissances linguistiques pour extraire des informations pertinentes à partir de documents. Par exemple, les systèmes d’extraction d’information basés sur des règles peuvent être utilisés pour identifier des entités nommées (noms de personnes, d’organisations, de lieux, etc.) et des relations entre ces entités dans des textes. Un exemple d’application est l’analyse et la catégorisation des messages entrants pour les entreprises, cœur de métier de Golem.ai avec la solution InboxCare.

Les avantages de l’IA symbolique 

L’IA symbolique est une approche qui utilise des symboles, et parfois des " règles” basées sur des connaissances, qui comporte plusieurs avantages :

- Explicablilité : Les décisions prises par les systèmes d’IA symbolique sont explicites et peuvent être expliquées en fonction des règles logiques et des connaissances déclaratives utilisées par le système. Cette transparence peut être essentielle dans des applications critiques, comme la médecine ou la défense.

- Frugalité : Contrairement au Machine Learning, l’IA symbolique ne nécessite pas d’entraînement, ce qui la rend moins gourmande en énergie à la fois lors de la conception et de l’utilisation.

- Adaptabilité : Les systèmes d’IA symbolique peuvent être facilement adaptés à de nouveaux domaines en ajoutant de nouvelles règles logiques et connaissances déclaratives à leurs bases de connaissances existantes, leurs permettant de s’adapter rapidement à de nouvelles situations.

L’intelligence artificielle hybride ou le neuro-symbolique 

Les systèmes hybrides combinent les avantages de l’IA symbolique et du Machine Learning en utilisant une approche mixte. Dans ce type de système, l’IA symbolique est utilisée pour représenter les connaissances et les règles logiques dans un domaine spécifique. Les techniques de Machine Learning sont ensuite utilisées pour améliorer les performances de l’IA symbolique en utilisant des ensembles de données pour apprendre des modèles de décision plus précis et plus flexibles. Mais nous pouvons également voir d’autres articulations comme la taxonomie de Kautz par exemple.

L’IA symbolique est souvent utilisée dans des domaines où il est important de comprendre et de contrôler la façon dont les décisions sont prises, comme la médecine, la finance ou la sécurité. En revanche, le Machine Learning est souvent utilisé pour des tâches de classification ou de prédiction à grande échelle, telles que la reconnaissance de voix ou d’image, ou pour détecter des modèles dans des données massives.

En combinant les deux approches, les systèmes hybrides peuvent bénéficier de la compréhensibilité et de la fiabilité de l’IA symbolique, tout en utilisant la flexibilité et la capacité de traitement massif de données du Machine Learning pour améliorer la performance des décisions. Ces systèmes hybrides peuvent également offrir une plus grande précision et un temps de réponse plus rapide que l’une ou l’autre approche utilisée seule.

Que retenir de ces deux approches ?

L’Intelligence Artificielle est en constante évolution et transforme de nombreux secteurs d’activité. Les deux approches principales de l’IA ont leurs avantages et inconvénients et peuvent être complémentaires. Il est donc crucial pour les entreprises de comprendre ces technologies pour rester compétitives. 

Cependant, les implications éthiques et sociales de l’IA doivent également être prises en compte. Les décisions des algorithmes peuvent avoir un impact sur la vie des personnes, leur travail, leurs droits et leurs libertés. Il est donc essentiel de mettre en place des normes éthiques et des réglementations pour garantir que l’IA soit au service de l’humanité. Les entreprises et les gouvernements doivent travailler ensemble pour développer des IA responsables, transparentes et équitables qui servent les intérêts de tous. En travaillant ensemble, nous pouvons assurer que l’IA soit une force positive pour l’humanité dans les années à venir. 



 

Auteur: Merindol Hector

Info: https://golem.ai/en/blog/technologie/ia-symbolique-machinelearning-nlp - 4 avril 2023

[ dualité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste