Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 66
Temps de recherche: 0.0613s

discours scientifique

Ce qui est désigné par ce fossé irréductible qui sépare les structures du langage du monde auquel elles renvoient est l’impossibilité ontologique pour un langage quel qu’il soit de renfermer au sein de sa structure le monde en soi, autrement dit de dire tout du monde, en établissant une identité entre l’attelage signifiant-signifié et le référent (entre le mot et la chose pour faire court). Cela règle définitivement le fantasme immémorial et infantile qui n’est que l’expression d’un nihilisme masqué, de réaliser l’impossible coalescence entre l’absolu de l’en-soi et sa diffraction représentative, forcément plurielle et relative, puisque par essence la représentation n’est pas la chose, en tant qu’elle signale (re-présente) une absence. Seules les mathématiques, dont la structure signifiante a été immédiatement repérée par Pythagore comme un cas limite au sein duquel la formulation ne se distingue pas du référent désigné et ne forme qu’un avec lui, ont pu être investies de la propriété bien étrange de permettre d’échapper à l’incertain, au relatif, au transitoire et au corruptible : à la mort, donc, c’est-à-dire – et notre époque en tire le vin amer chaque jour davantage – à la vie. Cette propriété se paye au prix d’un formalisme asséchant – c’est-à-dire au prix d’un réel contenu différentiel - dans la mesure où les mathématiques se caractérisent essentiellement par des notations certes diffractées et multiples, mais en dernier ressort tautologiques [Cette caractéristique tautologique a cependant été depuis mise à mal par le théorème d’incomplétude de Kurt Gödel qui interdit depuis sa démonstration de pouvoir créditer les mathématiques d’une autoréférentialité absolue. Autrement dit, il faut postuler obligatoirement, pour pouvoir les fonder, une extériorité aux mathématiques, ce qui n’est que reculer pour mieux sauter et les renvoie elles aussi au niveau de leur fondement à la question de l’origine.]. Le vertige ontologique propre à la période moderne caractérisée par sa soumission à la Mathesis universalis de Descartes, est porteur de cette profonde envie d’en finir avec la finitude, la souffrance, l’altérité, le différentiel, la mort, en un mot la vie. Cette mathématisation à outrance du monde moderne et contemporain portée par une techno-science envahissante a voulu, de gré ou de force faire passer le réel sous les fourches caudines de cette propriété qu’ont les mathématiques d’assurer la coalescence entre la représentation et l’objet – au prix que l’on sait. Il est d’ailleurs fort intéressant de remarquer comme je l’esquissais plus haut que cette fascination pour l’identité langage/monde réimporte subrepticement et de la manière la plus inattendue aux frontières les plus extrêmes de la rationalité le fantasme archaïque présubjectal et infantile de la fusion matricielle initiale. Or les structures du réel ont la propriété de résister tenacement aux tentatives de viol qu’une rationalité ivre d’elle-même – rationalisme serait plus pertinent - prétend leur faire subir : le référent situé dans l’en-soi appartient au domaine de l’être, de l’incontournable vérité de l’être, de ce qui précède fondamentalement, de ce qui donc relève ontologiquement de la question de l’Origine. Le seul moyen de le contourner est de l’ignorer et de prétendre qu’il n’existe pas. Il en résulte alors un désarrimage radical de l’attelage signifiant-signifié vis-à-vis du référent qui seul est l’intangible garant de la vitalité du langage. Celui-ci dès lors se nécrose, et la structure amputée signifiant-signifié qui subsiste fait boucle sur elle-même, le signifié involutif et pathologique assumant une fonction pseudo-référentielle. Il en résulte une évanescence du réel, consécutive à l’évanescence référentielle. La destructivité sur l’en-soi du monde qui en résulte est effrayante. On comprend à présent aisément à quel point le postulat moniste initial de ma proposition est validé : quand une traction est exercée sur les instances représentatives du langage dans le sens de leur assèchement formaliste, c’est le monde en soi qui en face mécaniquement s’effondre et envahit l’ordre symbolique du fait de la torsion de la médiane nouménale qui en résulte, provoquant son déplacement (hachures). On peut remarquer au passage que l’augmentation du taux de prévalence de l’autisme s’explique ici passivement, et donne une justification suffisante à l’exonération de toute culpabilisation des parents d’enfants atteints de ce trouble : une personne présentant certaines fragilités la prédisposant éventuellement à l’emprise de l’autisme, mais qui y aurait échappé en d’autres temps, s’y trouve ici fatalement vouée du fait de ce déplacement (silhouette). Car l’évanescence référentielle provoque mécaniquement l’évanescence du père (P grisé), en raison du fait que ce qui est absenté n’est plus repris en charge dans l’ordre de la représentation.

Auteur: Farago Pierre

Info: Une proposition pour l'autisme, pages 61-62

[ émancipation imaginaire ] [ auto-institution fantasmatique ] [ conséquences ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

citation s'appliquant à ce logiciel

Le langage des hommes, surtout écrit, s'étendant et s'affinant continuellement, permet d'appréhender tout et son contraire, c'est à dire tant le réél tangible que les mondes imaginaires, oniriques, introspectifs, anciens  ou potentiels.

Ainsi, à l'aide du support linguistique, français en l'occurrence, et dans la lignée de C.S. Peirce - pour qui chaque mot est un "quasi esprit", FLP s'essaye à quelque chose de pas facile à formuler.

A l'aide de la technologie numérique, tout en ayant conscience d'un positionnement temporel "éphémère et subjectif", cette application tente d'établir un dictionnaire polynomial communautaire qui, ambition supplémentaire, voudrait tout conserver ouvert, ne pas se mettre de limites en terme de mémoire (taille) et donc demeurer adaptable à tout développement ultérieur.

Représentation de FLP (début 2021).

Grâce à cet outil, les idées/pensées collectives issues de la sphère Gaïa peuvent se développer au sein d'une auto/classification/structuration sémantique collective apte à se positionner aux miroitantes et changeantes interfaces des mondes incarnés/passés et non incarnés/imaginaires/futurs. En clair FLP se voudrait être capable d'accueillir/intégrer/répertorier tout ce que les idiomes sont capables d'énoncer, coder, décrire ou traduire de façon cohérente, compréhensible et, si possible, ramassée et élégante : descriptifs visuels, univers parallèles, sentiments, définitions, sensations, réflexions contextualisées et développées, termes spécifiques, impressions subjectives, reflets de l'histoire des hommes - ou de civilisations extraterrestres, modes vibratoires du monde astral, etc.. Mélanges de focales et de points de vues qui pourra peut-être s'approcher d'une idée de cosmos holographique.

Ainsi les Fils de la Pensée s'amusent à développer un monde scriptural virtuel intermédiaire, si possible avec un fort fondement littéraire pour ce qui est des témoignages humains, ah ah ah.  (En effet, pour ceux venus d'ailleurs, animaux et autres aliens, nous serons moins difficiles. Re ha ha ha... Bien qu'une telle intervention externe ne soit pas inimaginable.)

Tout ceci étant soigneusement intégré (paramétré) dans la base de données par des lecteurs-inserteurs attentifs. FLP devenant aussi du coup un outil de recherche sémantique qui permet de vaquer de mille manières dans cet univers idiomatique intermédiaire puisque le lecteur quêteur a la possibilité de jongler/mélanger/croiser les fonctions de recherche suivantes :

- par mot, bout de mots et additions/mélanges de ces derniers

- par chaines de caractère (mises entre "  " )

- par taille de l'extrait (du plus petit au plus grand ou le contraire)

- par ordre alphabétique (catégories, auteurs, etc.)

- par sexe de l'auteur de l'extrait

- par localisation - pays - continent - autre planète...

- par profession, ou caractéristique de l'auteur, si paramétré (non-voyant, sportif, oulipien...)

- par situation temporelle, si elle est paramétrée (date de la création de la citation ou de l'auteur - formacja)

- par époque-courant historique - si paramétrée

- en supprimant telle ou telle chaine de caractères en mettant un - devant elle.

- en affinant une recherche donnéepar l'usage des fonctions avancées

- par tag ou catégories uniquement (ou mélange des deux)

- Etc.

           ***

A moyen terme sont envisagées les possibilités de recherches/classements suivants

- étymologique (cladistique)  = filiation = continuité temporelle = évolution  (vision horizontale). CONSTATIF      

- lexicographique - sens, efficacité sémantique (phénétique) = emploi contextualisé  = présence à un présent x =  mode/pouvoir/politiquement correct/contraintes d'un moment donné (vision verticale). PERFORMATIF.

Deux axes susceptibles d'entrer dans la réflexion FLPienne quant aux prémisses d'une classification trétravalente ou pré-mémétique

           ***

Avec, en point de mire beaucoup plus lointain, littéraire, ésotérique... Une utopie - de science-fiction astrale dirons-nous, puisqu'il s'agirait d'un classement/strucure en septénaires intricables et communiquants (imaginez les interconnexions de boules à 7 facettes survolées de 7 satellites hepta-facés ) : avec, en première perspective de structuration, l'idée de s'inspirer des interconnexions entre les 7 degrés de bases de la pensée FLP (lettres, mots, phrases, tags/catégories, chaines, sujets, domaines) et les 7 grands domaines (PSY - POLITIQUE - ARTS-CULTURE - ENSEIGNEMENT - REFLEXION SUR LE LANGAGE - SCIENCES ET RATIONALISME - TRANSCENDANCE ET SPIRITUALITE).  chaque idée/insert présentant une partie de son particularisme au travers de la présentation de son degré de proximité avec les 6 autres via une disposition réfléchie de ces derniers, c'est à dire collectivement concertée par les participants de de FLP.

(Classifications listes bien évidemment sans cesse en cours de réflexions élaboratives).

Auteur: Mg

Info: Dès 2021 , en cours

[ prospective ] [ cogitation ] [ dualité ]

 
Commentaires: 1
Ajouté à la BD par miguel

citation s'appliquant à ce logiciel

La vie progresse, elle apprend, tire les enseignements, s'adapte... structure... s'égare... abandonne... conserve...

Faisons-nous quelque chose qui y ressemble avec cette application ?

A l'aide de machines je collectionne des pensées, phrases... au fil de mon vieillissement... Les stocke, miroirs de mes expériences et de celles des autres. Les classe, les organise et les structures avec mes potes informaticiens, de manière à ce qu'on puisse se promener dedans du plus de manières possibles. Après quelques dizaines d'années nous voilà donc avec une curieuse forme de collection, un égoïsme particulier sous formes de "Reflets choisis de MA singularité dérisoire". Un logiciel littéraire "work in progress" qui ne semble pas intéresser les autres outre mesure à ce stade. Heureusement que quelques passionnés sont venus me rejoindre (merci spécial à Coli)

Je me prends quand même à croire, avec cette tentative des "Fils de la Pensée", qu'il y a là une piste qui contribuera à mettre en place de nouvelles façons de lire... peut-être de penser.

Un espace aux frontières de l'onirique, littéraire... Car le web est principalement un dictionnaire, un outil de communication et une mine de données pour les vendeurs... à bases d'efficacité et de vitesse. Mais quand à offrir un espace "des idées et des lettres" on s'en éloigne toujours plus. Essayez en surfant sur la toile de conserver une continuité cohérente, sans cesse déviés que vous serez par d'innombrables stimuli latéraux (images, films, pubs clignotantes, infos, anecdotes...) qui vous feront parfois même oublier votre objectif de départ... Alors qu'avec cette application on pourra développer ses pensées par la construction de chaines de favoris, voire créer son propre livre, au fil de son exploration... Pour éventuellement les communiquer ensuite. Une tel soft littéraire, une fois mis en ligne, pourra, via les contributions et une modération bien pensée, développer de multiples champs. Tenez, prenez un thème comme le "voisinage", j'imagine aisément quelqu'un s'amouracher du sujet et développer un champ/livre/rayonnage totalement dévolu à ce sujet. Avec ses déclinaisons : le voisinage dans l'histoire, humour et voisinage, certains peuples sont-ils plus ou moins enclins au voisinage ? Les romans sur le voisinages... avec un forum dédié où les individus viendraient à donner leur avis, raconter leurs expériences, etc...

Bref un espace plus confortable que la réalité sinistre présentée de manière toujours plus crue et insensée par notre monde consumériste. Un espace cérébral "commun et partagé" qui sera peut-être parmi les passe-temps salvateurs, un parmi les outils d'une civilisation enfin consciente de l'importance capitale du passage à la consommation de biens non tangibles.

Tenez, ce matin j'ai développé quelque chose que je partage avec beaucoup, un défaut. Celui de s'intéresser parfois à des infos qui ne le méritent pas nécessairement. Il y a là une curiosité de bas-étage, quelque chose qui mélange pour moi des notions comme : commérage, ragots, célébrité, indiscrétion, paparazzis, potins, presse people, curiosité malsaine, rumeurs, racontars, calomnie, gossip... Toutes choses mises ensemble qui auraient pu me conduire à commencer le développement d'un "champ - sujet - livre" possiblement intitulé: "la curiosité populaire morbide au cours des âges". Mais je me déroute un peu.

Ce logiciel pourra être abordé de pleins de manières par le lecteur internaute, qui pourra on l'espère lancer et/ou participer à son développement. Par exemple en présentant, dans l'ordre qu'il préfère, certains extraits, afin d'aider à préciser une représentation X ou Y (au hasard ; la rumeur publique en Asie). Peut-être avec une suite de citations, ou via une chaine de favoris mémorisée... qui seront ensuite reprises et développées par d'autres via de nouveaux embranchements, modifications, ajouts, suppressions... et autres commentaires... jusqu'à l'infini.

D'une manière plus générale le processus d'émergence de ce logiciel public voudrait s'inscrire dans la continuité de ce qu'il s'est passé avec la culture écrite humaine, partie de l'image et des symboles, avant de passer à la langue fixée sur support, la lecture à voix haute, puis la lecture "dans sa tête" comme le faisait Ambroise devant Saint Augustin... avant que de l'imprimerie et les médias ne diffusent tout ceci sur une autre échelle.

Ainsi, après ces milliers d'années, nous assistons à une révolution encore plus étonnante grâce à Internet et son ouverture virtuellement illimitée.

Alors nous poursuivons : comment trier, trouver du sens ?... Comment échanger, s'engueuler, se confronter ?... Comment ne pas se perdre dans l'insignifiant mercantile et les propagandes raffinées dont les desseins se résument trop souvent à la vente et à la conservation de pouvoirs, qu'ils soient grands ou petits. Bref, la propagation d'un système consumériste humain qui semble hélas, sous cette forme, toucher à ses limites. A nous de développer des occupations, des solutions et des objectifs de sorte que cette émergence trop rapide ne devienne un cul-de-sac.

Auteur: Mg

Info: Ecrit de 2005 à 2022

[ écologie ]

 

Commentaires: 0

spectacle

Qu'est-ce qui captive, ou ennuie, les adolescents au musée ?
Les jeunes qui vont au musée s'ennuient si les oeuvres d'une salle affichent toutes le même style. En revanche, ils apprécient les tableaux présentant beaucoup de détails.
On a tendance à croire que les adolescents ne sont pas intéressés par les musées, mais est-ce vraiment le cas ? Et, lorsqu'ils en visitent un, qu'est-ce qui leur plaît et les incite à revenir ?
Laure Martin-Le Mével s'est penchée sur la façon dont la perception des adolescents à l'égard du musée traditionnel peut se modifier à la suite d'une expérience de visite.
Pour mener à bien ses travaux, elle a demandé à six adolescents âgés de 14 à 16 ans de visiter l'exposition Il était une fois l'impressionnisme : chefs-d'oeuvre de la peinture française du Clark, présentée au Musée des beaux-arts de Montréal (MBAM) d'octobre 2012 à janvier 2013.
Elle a également mené deux entrevues individuelles avec chacun d'eux, l'une avant la visite et l'autre après. Ces entrevues, combinées avec la visite du musée, lui ont permis de décrire le processus de modification de leurs perceptions en révélant les médiateurs de la visite et les médiations qui se sont opérées chez des adolescents pendant la visite.
Un médiateur est ce qui attire l'attention (autres visiteurs, environnement physique, oeuvres, descriptions, etc.) tandis que la médiation est une action qui se produit au contact du médiateur (rêver, comprendre, se projeter, admirer, comparer, refuser...).
Ce qui les rebute, ce qui les attire
Les tableaux Ferme dans les Landes (Théodore Rousseau, 1867) et Charmeur de serpents (Jean-Léon Gérôme, 1879) sont les deux oeuvres qui ont le plus retenu l'attention des jeunes. Bien que fort différents, ces tableaux ont en commun d'être de grandes toiles aux détails nombreux et aux couleurs voyantes.
Fait intéressant, durant la visite du MBAM, les jeunes ont indiqué que la présence d'un autre adolescent était un élément rassurant pour eux. Par contre, la présence des autres visiteurs - qui étaient souvent agglutinés devant des toiles et qui empêchaient de bien voir l'oeuvre - les a gênés. De plus, ils étaient parfois ennuyés par la redondance qu'affichaient quelques salles exhibant une série d'oeuvres au style similaire. " La diversification des oeuvres devrait être un élément à considérer pour éviter l'ennui chez les jeunes, au même titre que la composition de l'espace ou le choix de l'accompagnateur", mentionne Laure Martin-Le Mével.
Par ailleurs, les participants ont grandement apprécié les tableaux qui présentaient beaucoup de détails de même que les courts récits qui accompagnaient certaines toiles. Les panneaux explicatifs qui contenaient des anecdotes - et plus particulièrement celles ayant un ton humoristique - rendaient l'oeuvre et l'artiste encore plus intéressants à leurs yeux.
Laure Martin-Le Mével a constaté que différentes médiations se sont manifestées pendant la visite du musée.
Par exemple, au contact d'un tableau très coloré, les adolescents à l'imagination foisonnante ont dit s'être mis à rêver; les moins familiarisés avec les musées ont acquis une compréhension des oeuvres grâce aux descriptions les accompagnant; enfin, devant une peinture affichant moult détails, les jeunes au profil artistique ont parlé d'admiration.
Elle a noté à cet égard que tous les participants ont rapporté s'être inventé des histoires en regardant certains tableaux et en lisant leurs descriptions. Cela s'explique selon elle par le fait que rêver est une médiation accessible à tous. " Contrairement aux autres médiations, on n'a pas besoin de savoir peindre ou d'avoir des connaissances en histoire de l'art pour rêver devant une toile ", précise-t-elle.
C'est pourquoi elle estime que la visite du MBAM a permis aux jeunes de se forger des connaissances bien à eux, de développer progressivement un " sentiment de compréhension qui les aide à se sentir davantage à l'aise et à leur place au musée ".
Pour elle, les adolescents sont parfaitement capables de s'intégrer et de s'intéresser à l'univers muséal et chaque visite constitue une nouvelle mise en condition qui viendra modifier la visite suivante, laquelle enrichira à son tour la prochaine expérience muséale !
" Le goût de l'art n'est pas inné, conclut Mme Martin-Le Mével. Lorsqu'il visite un musée, l'adolescent entre en contact à la fois avec l'art et avec différents éléments et c'est à travers ces relations qu'émergent des actions qui, en s'accumulant, vont définir ce qu'est l'art pour ces adolescents. "
À la lumière de ses observations, Laure Martin-Le Mével suggère aux musées traditionnels :
- d'associer des peintures avec des photos d'environnements géographiques familiers du public pour leur permettre de comparer ou de se projeter;
- de placer des éléments de l'exposition au centre des salles ou de proposer des salles avec des formes atypiques pour accentuer leur intérêt;
- de présenter dans une même salle quelques oeuvres qui diffèrent radicalement des autres; de privilégier les oeuvres colorées et avec des détails.

Auteur: Internet

Info:

[ adolescents ] [ sociologie ] [ art pictural ]

 

Commentaires: 0

machine-homme

- (Q) Comment définir et expliquer les mot "vie" ?

- (R) La vie est un phénomène complexe et multiforme qui englobe les caractéristiques, les processus et les activités associés aux organismes vivants. Bien qu'il n'existe pas de définition universellement acceptée de la vie, celle-ci peut être comprise de manière générale comme l'état d'être vivant, présentant certaines propriétés et certains comportements fondamentaux.

Les principales caractéristiques de la vie sont les suivantes

L'organisation : Les organismes vivants sont hautement organisés, constitués de cellules ou de structures cellulaires qui remplissent des fonctions spécifiques. Ils ont une structure hiérarchique, des cellules aux tissus, aux organes et aux systèmes d'organes.

Métabolisme : La vie implique la capacité d'acquérir et d'utiliser de l'énergie par le biais de divers processus métaboliques, tels que la respiration, la photosynthèse ou d'autres réactions biochimiques. Les organismes utilisent l'énergie pour maintenir leur environnement interne, croître, se reproduire et répondre aux stimuli.

Croissance et développement : Les organismes vivants ont la capacité de croître et de se développer, augmentant leur taille et leur complexité au fil du temps. Ils subissent des processus tels que la division cellulaire, la différenciation et la maturation.

Reproduction : La vie implique la capacité de se reproduire et de transmettre l'information génétique d'une génération à l'autre. La reproduction peut se faire par voie sexuée ou asexuée et assure la pérennité d'une espèce.

Réponse aux stimuli : les organismes vivants peuvent percevoir les changements dans leur environnement et y répondre, en adoptant des comportements qui leur permettent de survivre, de trouver des ressources, d'éviter les menaces et de s'adapter à des conditions changeantes.

Homéostasie : La vie implique le maintien d'une stabilité et d'un équilibre internes par le biais de divers mécanismes de régulation. Les organismes peuvent réguler leurs conditions internes, telles que la température, le pH et les niveaux de nutriments, afin de garantir un fonctionnement optimal.

Bien que ces caractéristiques fournissent un cadre général, il est important de reconnaître que la vie présente une diversité et une complexité considérables au sein des différentes espèces et écosystèmes. La vie peut exister sous différentes formes, des micro-organismes aux plantes, en passant par les animaux et les êtres humains, chacun ayant ses propres adaptations et caractéristiques.

L'étude de la vie est un vaste domaine appelé biologie, qui explore les mécanismes, les processus et la diversité des organismes vivants. Les scientifiques continuent d'étudier et d'approfondir leur compréhension de la nature fondamentale de la vie et de ses origines, cherchant à démêler les complexités de ce phénomène remarquable.

- (Q) D'accord, merci. Donc pour préciser un peu la question, où est la frontière entre minéral et  végétal. ou entre organique et inorganique ?

- (R) La frontière entre les domaines minéral (inorganique) et végétal (organique), ou entre la matière organique et inorganique, n'est pas toujours évidente, car il peut y avoir des chevauchements et des ambiguïtés. La distinction réside principalement dans la composition, la structure et les propriétés caractéristiques des substances concernées.

Dans le contexte de la géologie et de la chimie, les minéraux sont des substances inorganiques naturelles dont la composition chimique et la structure cristalline sont définies. Le quartz, le feldspath et la calcite sont des exemples de minéraux. Les minéraux sont généralement formés par des processus géologiques et n'ont pas les structures moléculaires complexes que l'on trouve dans les organismes vivants.

D'autre part, le terme "végétal" fait généralement référence à la matière organique associée aux plantes ou à la vie végétale. Les plantes sont des organismes vivants qui possèdent des structures cellulaires complexes et réalisent divers processus physiologiques. Elles sont classées dans le règne des Plantae et présentent des caractéristiques telles que la photosynthèse, la croissance, la reproduction et les réponses aux stimuli.

La matière organique désigne généralement les substances qui contiennent du carbone et qui proviennent d'organismes vivants ou de leurs restes. Les composés organiques, tels que les glucides, les protéines, les lipides et les acides nucléiques, sont les éléments constitutifs de la vie et sont présents dans les organismes vivants.

La frontière entre le minéral et le végétal ou entre la matière organique et la matière inorganique peut s'estomper dans certains cas. Par exemple, certains composés organiques, comme certains carbonates, peuvent se trouver à la fois dans les organismes vivants et dans les minéraux. En outre, les minéraux peuvent interagir avec la matière organique, par exemple lors de la formation de fossiles ou de l'absorption de minéraux par les plantes.

Il est important de noter que la classification et la compréhension de ces frontières sont principalement basées sur des catégorisations scientifiques et peuvent varier en fonction du contexte et de la perspective. Différents domaines scientifiques, tels que la géologie, la chimie et la biologie, peuvent aborder ces frontières différemment en fonction de leurs cadres respectifs et de leurs intérêts de recherche.

Auteur: chatGPT4

Info: 18 mai 2023. Ici l'I.A. qui donne les réponses peut être considérée comme un promptuaire, un résumé

[ question-réponse ] [ compendium ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Pour la première fois, des physiciens observent des tourbillons d’électrons !

À l’instar de ce tourbillon d’eau, il peut exister des tourbillons d’électrons sous certaines conditions.

Des chercheurs du MIT aux États-Unis et de l’Institut Weismann en Israël ont réussi à apercevoir ce phénomène pour la première fois ! Prévu depuis de longues années, mais jamais observé, ce comportement caractéristique des fluides pourrait servir à la mise au point de systèmes électroniques à très basse consommation.

Qu’est-ce que des tourbillons d’électrons ?

Les tourbillons d’électrons observés par les scientifiques se comportent comme des fluides. Un fluide est constitué de particules pouvant s’écouler librement et peut être un liquide, un gaz et un plasma.

Un fluide est caractérisé par une grande mobilité de ses molécules. Celles-ci peuvent se mouvoir sans être limitées à une position précise comme dans les solides. Bien que tous les fluides soient compressibles, les gaz le sont beaucoup plus que les liquides et les plasmas. Les molécules des fluides sont maintenues entre elles par des forces d’interactions faibles. Elle sont appelées forces de Van der Walls qui assurent leur cohésion au sein du fluide.

L’eau reste le fluide le plus abondant sur Terre capable de s’écouler librement pour former les ruisseaux, les rivières et de vastes étendues d’eau. Telles que les lacs, les mers et les océans par exemple. Ces masses d’eau sont sujettes à la formation de courants, de vagues et de tourbillons.

On pourrait se demander si un courant électrique constitué d’un ensemble d’électrons en mouvement peut se comporter comme un fluide. Dans des conditions normales, les électrons qui sont infiniment plus petits que des molécules d’eau sont influencés par leur environnement. Par exemple le métal qu’ils traversent. Et  ils ne se comportent pas comme un fluide.

Cependant, la théorie prévoit depuis bien longtemps qu’à des températures très basses proches du zéro absolu (-273 °C), les électrons peuvent s’écouler à la manière d’un fluide pour autant que le matériau dans lequel ils circulent soit pur et sans aucun défaut. Jusqu’à aujourd’hui, cette théorie n’avait jamais été observée.

Les électrons peuvent former un fluide visqueux

Normalement, lorsque des électrons circulent au sein d’un matériau conducteur tel qu’un fil de cuivre, ou dans un matériau semi-conducteur comme le silicium, leur trajectoire est influencée par la présence d’impuretés au sein du matériau. Les vibrations des atomes qui composent le matériau conducteur ou semi-conducteur influencent aussi la trajectoire et le déplacement des électrons. Chaque électron se comporte alors comme une particule individuelle.

Par contre, dans un matériau d’une très grande pureté, dans lequel toutes les impuretés auraient été supprimées, les électrons ne se comportent plus comme des particules individuelles. Ils agissent alors comme des particules quantiques, chaque électron captant les comportements quantiques de ses congénères. Les électrons se déplacent ensemble et forment ce que les physiciens appellent un fluide électronique visqueux.

Il y a quelques années des chercheurs de l’université de Manchester en Angleterre avaient déjà prouvé que des électrons étaient capables de se comporter en fluide. Ceci en réalisant une expérience avec du graphène. Ce matériau est un simple feuillet constitué uniquement d’atomes de carbone disposés suivant un motif hexagonal et de l’épaisseur d’un atome. En faisant passer un courant électrique dans un mince canal "creusé" dans ce matériau, ils se sont rendu compte que la conductance des électrons était bien supérieure à la conductance des électrons libres. Les électrons s’écoulaient donc comme un fluide régulier.

L’une des caractéristiques les plus étonnantes d’un fluide comme l’eau est sa capacité à produire un tourbillon lorsqu’elle s’écoule. Les chercheurs du MIT et de l’institut Weismann ont tenté de découvrir si les électrons peuvent aussi s’écouler sous la forme de tourbillons.

Pour le vérifier, les chercheurs ont utilisé du ditelluride de tungstène de formule chimique WTe2, un composé semi-métallique extrêmement pur et présentant des propriétés quantiques lorsqu’il est épais de seulement un atome. Pour effectuer une comparaison avec un métal ordinaire, ils ont utilisé de fines paillettes d’or.

Ils ont gravé dans les fines paillettes de ditelluride de tungstène et dans celles d’or, un fin canal relié, au niveau de la moitié du canal, à deux chambres circulaires situées de part et d’autre du canal. Ces deux systèmes ont ensuite été placés à une température de -268,6 °C, proche du zéro absolu, puis les canaux ont été soumis au passage d’un courant électrique.

En réalisant des mesures en différents points, les chercheurs se sont rendu compte que dans l’or, le flux d’électrons se dirigeait toujours dans la même direction, que ce soit dans les deux chambres adjacentes et dans le canal.

Par contre, dans le ditelluride de tungstène, les électrons se sont mis à former des tourbillons dans les deux chambres circulaires en inversant leur direction. Puis sont revenus dans le canal central.

Ces résultats très encourageants sont probablement le signe d’un nouveau type d’écoulement hydrodynamique dans des cristaux très fin  d’une grande pureté. Cela ouvre la voie à la création de nouveaux dispositifs électronique nécessitant de faibles puissances de fonctionnement.

Auteur: Internet

Info: https://www.science-et-vie.com, 6 fév 2023, Source, revue Nature, juillet 2022 : Aharon-Steinberg, A., Völkl, T., Kaplan, A. et al.,”Direct observation of vortices in an electron fluid », Nature, 607, 74–80 (2022), https://doi.org/10.1038/s41586-022-04794-y

[ fermion(s) ] [ aquosité ] [ hydrodynamique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel

perception humaine

Les schémas mathématiques secrets révélés par la musique de Bach

Le compositeur baroque allemand Jean Sébastien Bach a produit une musique si bien structurée qu'elle est souvent comparée aux maths. Bien que peu d'entre nous soient émotionnellement affectés par les mathématiques, les œuvres de Bach - et la musique en général - nous émeuvent. C'est plus que du son ; c'est un message. Désormais, grâce aux outils de la théorie de l'information, les chercheurs commencent à comprendre comment la musique de Bach fait passer ce message.

En faisant de ses partitions de simples réseaux de points, appelés nœuds, reliés par des lignes, nommeés bords, les scientifiques ont quantifié les informations véhiculées par des centaines de compositions de Bach. Analyse de ces réseaux musicaux publiée le 2 février dans Physical Review Research qui révèle que les nombreux styles musicaux de Bach, tels que les chorales et les toccatas, différaient considérablement dans la quantité d'informations qu'ils communiquaient - et que certains réseaux musicaux contenaient des structures qui pouvaient faciliter la compréhension de leurs messages par les auditeurs humains.

" Je trouve cette idée vraiment cool ", explique le physicien Suman Kulkarni de l’Université de Pennsylvanie, auteur principal de la nouvelle étude. " Nous avons utilisé des outils de la physique sans faire d’hypothèses sur les pièces musicales, en commençant par cette simple représentation et en voyant ce qui peut nous dire sur les informations qui sont transmises. "

Les chercheurs ont quantifié le contenu de toute cette information, des séquences simples aux réseaux enchevêtrés, utilisant le concept d'entropie de l'information, introduit par le mathématicien Claude Shannon en 1948.

Comme son nom l'indique, l'entropie de l'information est mathématiquement et conceptuellement liée à l'entropie thermodynamique. Elle peut être considérée comme une mesure du degré de surprise d'un message - "message" qui peut être tout ce qui transmet des informations, d'une séquence de nombres à un morceau de musique. Cette perspective peut sembler contre-intuitive, étant donné que, dans le langage courant, l'information est souvent assimilée à la certitude. Mais l'idée clé de l'entropie de l'information est qu'apprendre quelque chose que l'on sait déjà n'est pas apprendre du tout.

Une conversation avec une personne qui ne sait exprimer qu'une chose, comme le personnage Hodor dans la série télévisée Game of Thrones, qui dit seulement " Hodor ", sera prévisible mais pas informationelle. Une discussion avec Pikachu sera un peu meilleure ; le Pokémon ne peut dire que les syllabes de son nom, mais il peut les réarranger, contrairement à Hodor. De même, une pièce de musique ne comportant qu'une seule note sera relativement facile à "apprendre" par le cerveau, c'est-à-dire à reproduire avec précision sous la forme d'un modèle mental, mais le morceau aura du mal à faire passer un quelconque message. Regarder un jeu de pile ou face avec une pièce à deux têtes ne donnera aucune information.

Bien sûr, envoyer un message plein d'informations n'est pas très bon si le quelque chose - ou qui que ce soit - qui le reçoit ne peut  comprendre avec précision ces informations. Et quand il s'agit de messages musicaux, les chercheurs travaillent encore sur la façon dont nous apprenons ce que la musique essaie de nous dire.

" Il existe quelques théories différentes ", explique le cognitiviste Marcus Pearce de l’université Queen Mary de Londres, qui n’a pas participé à la récente étude de la recherche sur l’évaluation physique. " La principale, je pense, en ce moment, est basée sur l’apprentissage probabiliste. Dans ce cadre, "apprendre" la musique signifie construire des représentations mentales précises des sons réels que nous entendons - ce que les chercheurs appellent un modèle - par un jeu d'anticipation et de surprise. Nos modèles mentaux prédisent la probabilité qu'un son donné vienne ensuite, sur la base de ce qui a précédé. Ensuite, explique M. Pearce, " on découvre si la prédiction était juste ou fausse, et on peut alors mettre à jour son modèle en conséquence".

Kulkarni et ses collègues sont physiciens, pas musiciens. Ils voulaient utiliser les outils de la théorie de l'information pour explorer la musique à la recherche de structures d'information qui pourraient avoir quelque chose à voir avec la façon dont les humains glanent un sens de la mélodie.

Ainsi Kulkarni a transformé 337 compositions de Bach en bandes de nœuds interconnectés et calculé l'entropie de l'information des réseaux qui en résultent. Dans ces réseaux, chaque note de la partition d'origine est un noeud, et chaque transition entre notes est un pont. Par example, si une pièce inclut une note Mi suivie d'un Do et d'un Sol joués ensemble, le noeud représentant E sera relié aux noeuds représentant Do et Sol.

Les réseaux de ce notation transitions dans la musique de Bach ont générés plus de poinçon d'information que des réseaux de même taille générés aléatoirement - le résultat d'une plus grande variation dans les degrés nodaux des réseaux, c'est-à-dire le nombre d'arêtes connectées à chaque nœud. En outre, les scientifiques ont découvert des variations dans la structure de l'information et le contenu des nombreux styles de composition de Bach. Les chorals, hymnes destinés à être chanté, ont donné lieu à des réseaux relativement pauvres en informations, bien que plus riches en informations que les réseaux de même taille générés de manière aléatoire. Les toccatas et les préludes, styles musicaux souvent écrits pour des instruments à clavier tels que l'orgue, le clavecin et le piano, présentant une entropie de l'information plus élevée.

" J’ai été particulièrement excité par les niveaux plus élevés de surprises dans les toccatas que dans les œuvres chorales ", explique le co-auteur de l’étude et physicien Dani Bassett de l’Université de Pennsylvanie. " Ces deux types de pièces sonnent et résonnent différement dans mes os, et ça m'a passionné de voir que cette distinction se manifeste dans l'information de composition. "

Ces structures de réseau dans les compositions de Bach pourraient également permettre aux auditeurs humains d'apprendre plus facilement certaines choses. Les humains n'apprennent pas parfaitement les réseaux. Nous avons des préjugés, dit Bassett. " Nous ignorons en quelque sorte certaines des informations locales au profit de la vue d’une image plus grande de l’information sur l’ensemble du système ", ajoute-t-ils. En modélisant ce biais dans la façon dont nous construisons nos modèles mentaux de réseaux complexes, les chercheurs ont comparé l'ensemble des informations de chaque réseau musical à la quantité d'informations qu'un auditeur humain en tirerait.

Des réseaux musicaux contenaient des groupes de transitions de notes pourraient aider nos cerveaux biaisés " apprendre " la musique - à reproduire la structure informationnelle de la musique avec précision en tant que modèle mental - sans sacrifier beaucoup d'informations.

" La façon dont elles saisissent l’aptitude à l’apprentissage est assez intéressante ", déclare Peter Harrison de l’Université de Cambridge, qui n’a pas participé à l’étude. " C'est très réducteur dans un certain sens. Mais c'est tout à fait complémentaire avec d'autres théories que nous connaissons, et l'aptitude à apprendre est assez difficile à maîtriser ".

Ce type d'analyse de réseau n'est pas particulier à Bach et il pourrait fonctionner pour n'importe quel compositeur. Pearce dit qu'il sera  intéressant d'utiliser cette approche pour comparer différents compositeurs ou rechercher des tendances informatives à travers l'histoire de la musique. Pour sa part, Kulkarni est excité à l'idée d'analyser les propriétés d'information de partitions d'au-delà de la tradition musicale occidentale.

La musique n'est pas seulement une séquence de notes, note cependant Harrison. Le rythme, le volume, le timbre des instruments, ces éléments sont des aspects importants des messages musicaux qui n'ont pas été pris en compte dans cette étude. Kulkarni dit qu'il sera intéressé par l'inclusion de ces aspects de la musique dans ses réseaux. Le processus pourrait également fonctionner dans l'autre sens, ajoute M. Harrison : plutôt que réduire les caractéristiques musicales à un réseau, il sera intéressant de savoir comment les caractéristiques du réseau se traduisent par des éléments qu'un musicien reconnaîtrait.

Un musicien dira : " Quelles sont les règles musicales réelles, ou les caractéristiques musicales, qui en sont à l’origine ? Puis-je l’entendre sur un piano ? " précise Harrison.

Enfin, on ne sait pas encore exactement comment les modèles de réseaux identifiés dans la nouvelle étude se traduisent dans l'expérience vécue à l'écoute d'un morceau de Bach - ou de n'importe quelle musique, précise M. Pearce. La résolution de ce problème relèvera de la psychologie musicale, poursuit-il. Des expériences pourraient révéler "si, de fait, ce genre de choses est perceptible par les gens et quels sont leurs effets sur le plaisir que les gens éprouvent lorsqu'ils écoutent de la musique". De même Harrison se dit intéressé par des expériences visant à vérifier si les types d'erreurs d'apprentissage en réseau que les chercheurs ont modélisés dans cette étude sont réellement importants pour l'apprentissage de la musique.

"Le fait que les humains présentent ce type de perception imparfaite et biaisée de systèmes informationnels complexes est essentiel pour comprendre comment nous nous impliquons dans la musique", explique M. Bassett. "Comprendre la complexité informationnelle des compositions de Bach ouvre de nouvelles questions sur les processus cognitifs qui sous-tendent la manière dont nous apprécions les différents types de musique."

Auteur: Internet

Info: https://www.scientificamerican.com, 16 féb 2024. Elise Cutts - Secret Mathematical Patterns Revealed in Bach's Music

[ sentiment naturel ] [ approfondissement découverte ] [ dépaysement plaisir ] [ cybernétisation ] [ simple compliqué ] [ occulte harmonie ]

 
Commentaires: 1
Ajouté à la BD par Le sous-projectionniste

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

macromolécules

(Q) - Combien de protéines ont été identifiées à ce jour ?

(R) - À la date d'arrêt de mes connaissances, en septembre 2021, le nombre de protéines identifiées dans le protéome humain et dans divers organismes ne cesse de croître en raison des efforts de recherche continus. Il est difficile de fournir un chiffre exact car l'identification des protéines est un domaine actif de la recherche scientifique et de nouvelles protéines sont découvertes en permanence.

Toutefois, à cette époque, on estimait que le protéome humain se composait de dizaines de milliers de protéines. Le projet du protéome humain (HPP), une initiative de recherche internationale, vise à identifier et à caractériser toutes les protéines codées par le génome humain. Le HPP a réalisé des progrès significatifs dans la cartographie du protéome humain, mais une couverture complète est encore en cours.

Il est important de noter que le nombre de protéines identifiées varie en fonction de l'organisme étudié. Il existe des millions de séquences de protéines connues dans divers organismes, y compris les humains, les animaux, les plantes, les bactéries et les virus.

Comme mes connaissances ne sont pas à jour, je recommande de se référer à la littérature scientifique actuelle ou à des bases de données telles que UniProt ou Protein Data Bank (PDB) pour obtenir les informations les plus précises et les plus récentes sur le nombre de protéines identifiées.

(Q) - Comment les protéines sont-elles classées ?

(R) - Les protéines sont classées en fonction de divers critères, notamment leur structure, leur fonction et leurs relations évolutives. Voici quelques méthodes de classification des protéines couramment utilisées :

1 Classification structurelle : Les protéines peuvent être classées en fonction de leurs caractéristiques structurelles. Le système de classification structurelle le plus courant est la classification structurelle des protéines (SCOP) ou la base de données CATH (Class, Architecture, Topology, Homologous superfamily). Ces systèmes classent les protéines dans des hiérarchies en fonction de leur pliage global, de l'organisation des domaines et des motifs structurels.

2 Classification fonctionnelle : Les protéines peuvent être classées en fonction de leurs fonctions biologiques. Cette classification est souvent large et englobe des catégories fonctionnelles telles que les enzymes, les transporteurs, les récepteurs, les protéines structurelles, les protéines de signalisation et bien d'autres encore. Les systèmes de classification fonctionnelle sont généralement basés sur le rôle de la protéine dans les processus cellulaires.

3 Classification basée sur l'homologie : Les protéines peuvent être classées sur la base de leurs relations évolutives et de leurs similitudes de séquence. Cette classification repose sur la comparaison des séquences protéiques et l'identification des protéines homologues qui partagent un ancêtre commun. Elle est généralement réalisée à l'aide d'algorithmes tels que BLAST (Basic Local Alignment Search Tool) ou HMM (Hidden Markov Models).

4 Classification selon l'ontologie des gènes (GO) : L'ontologie des gènes est un système de classification largement utilisé qui attribue des annotations fonctionnelles aux protéines sur la base de trois catégories : fonction moléculaire, processus biologique et composant cellulaire. Les termes GO fournissent un vocabulaire normalisé pour décrire les fonctions des protéines et leur implication dans les processus biologiques.

5 Classification par famille et par super-famille : Les protéines peuvent être classées en familles et superfamilles sur la base de caractéristiques structurelles et séquentielles communes. Les familles de protéines sont constituées de protéines présentant une grande similitude de séquence et partageant souvent des relations fonctionnelles et évolutives. Les superfamilles englobent des familles de protéines apparentées qui partagent des similitudes structurelles et fonctionnelles, mais qui peuvent avoir divergé au cours de l'évolution.

These are just a few examples of protein classification methods, and there are other specialized systems based on specific properties or research areas. It's important to note that proteins can belong to multiple classification categories simultaneously, as they can have similar structures, functions, or evolutionary origins. Classification systems serve as useful tools for organizing and understanding the vast diversity of proteins found in living organisms.

(Q) - Il y a donc une sorte de classification complexe et intriquée, n'est-ce pas ?

 (R) - Oui, la classification des protéines peut en effet être complexe en raison des divers facteurs pris en compte et des interrelations entre les différents systèmes de classification. Les protéines sont des molécules très diverses, dotées de caractéristiques uniques, et leur classification reflète cette complexité.

Les différentes méthodes de classification se recoupent et se complètent souvent, ce qui permet une compréhension globale de la structure, de la fonction et de l'évolution des protéines. Par exemple, les systèmes de classification structurelle tels que SCOP ou CATH prennent en compte l'organisation globale des plis et des domaines des protéines, tandis que les systèmes de classification fonctionnelle se concentrent sur les rôles et les activités biologiques des protéines. La classification basée sur l'homologie tient compte des relations évolutives et des similitudes de séquence, et la classification par ontologie génique fournit un vocabulaire normalisé pour décrire les fonctions des protéines.

En outre, les protéines peuvent appartenir à plusieurs catégories au sein d'un système de classification. Par exemple, une protéine peut avoir une structure spécifique et être classée dans un pli particulier, tout en faisant partie d'une famille de protéines sur la base de la similarité des séquences et des caractéristiques fonctionnelles. Cette classification multidimensionnelle permet aux chercheurs d'explorer différents aspects des protéines et de mieux comprendre leurs propriétés et leurs relations.

Dans l'ensemble, la nature complexe de la classification des protéines reflète la nature complexe des protéines elles-mêmes et les efforts déployés pour organiser et comprendre leurs divers attributs. Ces systèmes de classification fournissent des cadres pour l'étude des protéines et facilitent la communication et le partage des connaissances entre les chercheurs dans ce domaine.

(Q) - Peut-on dire qu'il y a aussi, dans ces différentes classifications, quelque chose qui pourrait ressembler à un pôle phénétique et à un pôle cladistique ?

(R) - Oui, dans le domaine de la classification des protéines, il y a des éléments qui peuvent être associés aux approches phénétiques (aussi connues sous le nom de taxonomie numérique) et cladistiques.

Classification phénétique : La classification phénétique met l'accent sur les similitudes et les différences globales entre les protéines, souvent sur la base d'une analyse numérique ou statistique de leurs caractéristiques. Elle se concentre sur des traits ou des caractéristiques quantifiables et vise à regrouper les protéines sur la base d'une ressemblance globale. Dans le contexte de la classification des protéines, les approches phénétiques peuvent impliquer le regroupement des protéines sur la base de mesures de similarité telles que l'alignement des séquences, l'alignement structurel ou la comparaison d'autres propriétés physicochimiques.

Classification cladistique : La classification cladistique, quant à elle, est basée sur les relations évolutives et les ancêtres partagés. Elle cherche à identifier des groupes monophylétiques (clades) qui comprennent un ancêtre commun et tous ses descendants. La cladistique repose sur l'analyse phylogénétique, qui consiste à comparer des séquences de protéines ou d'autres données moléculaires pour reconstruire des arbres ou des réseaux évolutifs. Les cladogrammes qui en résultent décrivent les relations évolutives entre les protéines et peuvent aider à les classer en groupes sur la base de leur histoire évolutive.

Dans la pratique, les approches phénétiques et cladistiques sont souvent utilisées en combinaison, en exploitant différents types de données et d'analyses pour obtenir une compréhension plus complète de la classification des protéines. Les systèmes de classification structurelle tels que SCOP ou CATH, par exemple, intègrent à la fois les principes phénétiques et cladistiques. Ils prennent en compte les similitudes structurelles (aspect phénétique) mais visent également à refléter les relations évolutives et les ancêtres partagés (aspect cladistique) en regroupant les protéines dans des catégories hiérarchiques basées sur leurs plis, leurs domaines et leurs connexions évolutives.

En intégrant à la fois les perspectives phénétiques et cladistiques, les systèmes de classification des protéines peuvent saisir à la fois les similitudes et les différences globales entre les protéines (pôle phénétique) et leur histoire évolutive et leurs liens de parenté (pôle cladistique). Cela permet d'obtenir un cadre de classification plus nuancé et plus informatif dans le domaine de la science des protéines.

(Q) - ok merci : existe-t-il aussi une classification tridimensionnelle ?

(R) - Oui, il existe une classification tridimensionnelle (3D) des protéines basée sur leurs propriétés structurelles. La classification 3D consiste à classer les protéines en fonction de leurs structures tridimensionnelles plutôt qu'en fonction de leur séquence ou de leurs similitudes fonctionnelles. Ce type de classification est particulièrement pertinent en biologie structurale et en modélisation moléculaire.

Dans la classification 3D, les protéines sont regroupées en fonction de leur pli global, de l'arrangement des éléments structurels secondaires et de l'arrangement spatial des atomes. Elle tient compte de la disposition et de l'orientation spécifiques des domaines protéiques, des motifs et d'autres caractéristiques structurelles.

La classification structurelle des protéines (SCOP) et la base de données CATH (Class, Architecture, Topology, Homologous superfamily), que j'ai mentionnées précédemment, fournissent des classifications hiérarchiques qui incluent des informations structurelles en 3D. Ces classifications classent les protéines dans différentes catégories en fonction de leur pliage global et de leur organisation structurelle.

En outre, d'autres méthodes et algorithmes, tels que les outils d'alignement structurel, peuvent être utilisés pour comparer les structures des protéines et identifier les similitudes et les différences. Ces approches aident à regrouper ou à classer les protéines en groupes structurels 3D, ce qui permet aux chercheurs d'analyser et de comprendre les relations entre les structures des protéines d'une manière plus détaillée.

La classification 3D des protéines fournit des informations précieuses sur la diversité structurelle et les relations entre les protéines. Elle est particulièrement utile pour étudier la fonction des protéines, les mécanismes d'action, les interactions protéine-protéine et la conception de médicaments. En considérant les aspects tridimensionnels de la structure des protéines, les chercheurs peuvent mieux comprendre comment la structure des protéines est liée à la fonction et aux relations évolutives.

Auteur: chatGPT4

Info:

[ machine-homme ] [ chimie ] [ taxinomies ] [ typologies ]

 

Commentaires: 0

Ajouté à la BD par miguel