Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 737
Temps de recherche: 0.0472s

data élagage

IA : Cette technique oubliée du 18e siècle rend le Deep Learning inutile

Et si le deep learning devenait inutile au développement de l’intelligence artificielle ? Cette technique oubliée du 18e siècle pourrait le remplacer.

Jusqu’à maintenant, le deep learning ou l’apprentissage profond est présenté comme un processus essentiel au développement de l’intelligence artificielle. Il consiste à entraîner les grands modèles de langage (LLM) avec un énorme volume de données. Mais des chercheurs finlandais avancent que le deep learning pourrait devenir inutile.

Ces chercheurs font partie d’une équipe de l’université de Jyväskylä qui effectue des travaux sur les techniques de développement de l’intelligence artificielle. Ils ont publié le mois dernier, dans la revue Neurocomputing, un papier intéressant sur une ancienne méthode mathématique du 18e siècle.

Cette technique est plus simple et plus performante que l’apprentissage profond, défendent les auteurs dans leur papier. Notons que cette conclusion constitue l’aboutissement de six années de recherche.

Il faut que le deep learning devienne inutile…

Le deep learning s’apparente aux techniques d’intelligence artificielle exploitant massivement des données et des ressources informatiques. Celles-ci servent à entraîner des réseaux neuronaux pour avoir des LLM. Rappelons que ces derniers se trouvent au cœur des IA génératives comme le populaire Chat-GPT.

Mais il ne faut pas croire que l’apprentissage profond est infaillible. Le volume des données à traiter en fait une méthode complexe et souvent sujette à des erreurs. Cela impacte significativement les performances des modèles génératifs obtenus.

En effet, la complexité du deep learning se retrouve dans la structure d’un LLM (large miodèle de langage). Cela peut instaurer une boîte noire sur le mécanisme du modèle IA. Dans la mesure où son fonctionnement n’est pas maîtrisé, les performances ne seront pas au rendez-vous. L’opacité du mécanisme IA peut même exposer à des risques.

Des modèles IA performants sans deep learning

L’équipe de l’université de Jyväskylä travaille ainsi depuis six ans sur l’amélioration des procédés d’apprentissage profond. Leurs travaux consistaient notamment à explorer la piste de la réduction des données. L’objectif est de trouver un moyen pratique pour alimenter les LLM sans pour autant les noyer de données.

Les auteurs de la recherche pensent avoir trouvé la solution dans les applications linéaire et non-linéaire. Il s’agit d’un concept mathématique dont le perfectionnement a eu lieu du 17e au 18e siècle. Celui-ci s’appuie principalement sur la combinaison des fonctions et des équations différentielles.

Les applications linéaire et non-linéaire permettent ainsi de générer un nouvel ordre de modèles de langage. Il en résulte des LLM avec une structure beaucoup moins complexe. Par ailleurs, son fonctionnement ne requiert pas un énorme volume de données. Cela n’a pourtant aucun impact négatif sur la performance.

Les mathématiques du 18e siècle pour moderniser l’IA…

L’importance de l’intelligence artificielle dans la technologie moderne augmente rapidement. La compréhension et la vraie maîtrise des grands modèles de langage deviennent indispensables. Les chercheurs finlandais pensent que leur nouvelle méthode peut résoudre certains problèmes en lien avec le développement de l’intelligence artificielle.

En effet, plus le développement de l’IA sera simple et transparent, il sera davantage facile d’envisager son utilisation éthique. L’accent est également mis sur la dimension écologique du nouveau procédé. Des LLM plus simples requièrent beaucoup moins de ressources informatiques et sont moins énergivores.

Néanmoins, les chercheurs craignent le scepticisme des actuels principaux acteurs de l’IA. "Le deep learning occupe une place si importante dans la recherche, le développement de l’intelligence artificielle (…) Même si la science progresse, la communauté elle-même peut se montrer réticente au changement", explique l’un des auteurs de la recherche.

Auteur: Internet

Info: https://www.lebigdata.fr/, Magloire 12 octobre 2023

[ limitation de la force brute ] [ vectorisation sémantique ] [ émondage taxonomique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

citation s'appliquant à ce logiciel

S'associant avec des termes qui ne sont pas dans les citations/extraits, les tags de ce logiciel en sont la valeur ajoutée la plus évidente.

Maintenant, pour comprendre au moins mal la structuration de ce logiciel, il faut savoir que nous sommes partis de ce que nous voulons appeler notre miroir corps-esprit, tel qu'exprimé par un des titres du logiciel : "Tentative d'une inversion de la sphère physique de notre jeunesse en une sphère écrite de notre âge mûr." C'est à dire que chacun des extraits a résonné à un moment ou à un autre d'une certaine manière avec notre expérience.

Egomorphisme... autisme ? A voir.  Nous voilà avec une belle et robuste subjectivité en tous les cas.(idiosynchrasie projetée ?)

Nous nous sommes donc appuyé sur la structure commune au plus grand nombre, les mots, issus de notre réel et de son évolution. Un vocabulaire séquencé à partir des termes les plus simples et concrets de l'enfance : manger-boire, papa-maman, souffrir-jouir, prendre-donner... avec déjà beaucoup de dualité. Pour aller ensuite vers des appellations plus génériques et conceptuelles : vie-mort, bonheur-malheur, théorie-pratique... Nous trouvant ainsi un peu plus engagé dans l'interprétation et le subjectif, avec déjà des possibilités quasi infinies de combinaisons. Ces mots et leurs combinaisons suffiraient aisément pour cette classification mais les hommes ne sont pas si simples, ils associent. Pour qui voudra approfondir les notions d'"association induite" ou d'"association libre" il suffira de consulter certaines typologies, comme celles tentées par Jung il y a déjà plus d'un siècle. Typologies par ailleurs soumises et subordonnées aux idiomes. Il y a là, par parenthèse, un champ d'exploration qui semble fort peu défloré et qui pourrait, qui sait !, déboucher sur l'émergence d'archétypes et autres concepts terminologiques nouveaux qui accompagneront les prometteurs champs de la science que sont la biophysique ou l'informatique.

Mais revenons sur terre. Le classement de ce logiciel, de par son étiquetage humain, ouvre et optimise les associations puisque les corrélats, qui ne font pas partie du texte de la citation, sont pris en compte dans une recherche. "Tags/Corrélats" supposé préciser ou éclairer le ou les sens d'un extrait. L'unique hiérarchie de ces tags étant que le premier (le plus significatif, le plus pertinent ?...) est nommé CATEGORIE. Mais nous en avons déjà parlé. Donc pas question ici de trop hiérarchiser les tags-corrélats qui sont venus à l'esprit du tagueur "sans trop réfléchir", instinctivement. Nous pensons qu'un classement plus précis, plus réfléchi, serait déjà une limitation... la mise en place d'une mécanique figée.

Il y a donc la possibilité d'associer - et de rechercher - des corrélations à deux termes comme : agonie - mort, souffrance - apprentissage, admiration - enthousiasme, etc... Termes associés qui forment l'embryon d'une table des matières à venir, appelée à constituer petit à petit une sorte de dictionnaire "plus précis", mais aussi plus ouvert pour la classification, la recherche et donc la réflexion à partir d'une pensée. Couples de termes qui vont évidemment de deux quasi synonymes, (ce qui en général centrera la recherche) jusqu'aux termes complètement antagonistes, dont les interactions ne seront pas moins intéressantes. Avec l'espoir de pouvoir implémenter un jour des recherches plus complexes.

Comme dit plus haut, s'affine aussi avec le temps l'organisation du classement via des tags-corrélats plus précis comme "hommes-par-femmes", "femmes-par-hommes", "fond-forme"... (pour plus de détail aller voir le mode d'emploi du soft ... ou lire le texte explicatif qui commence par : A l'origine il y a cet atavisme...)

Tout ceci partant évidemment du point de vue que les sensations du tagueur correspondent pour bonne partie à celles de ses collègues humains. Avec cet agacement central, peut-être une de nos limitations les plus importante, frustrante : l'homme ne parle ici qu'à lui-même. Mais qu'importe. Si l'auteur de ces lignes n'est qu'une pauvre illusion. Vous en êtes une autre.

Auteur: Mg

Info: 17 juillet 2013

[ indexation ] [ écriture ] [ témoignage ]

 

Commentaires: 0

post-matérialisme

Comme nous le disions aussi précédemment, s’il est vrai que l’emprise du matérialisme diminue, il ne convient pourtant guère de s’en féliciter, car, la "descente" cyclique n’étant pas encore achevée, les "fissures" [...] ne peuvent se produire que par le bas ; autrement dit, ce qui "interfère" par là avec le monde sensible ne peut être rien d’autre que le "psychisme cosmique" inférieur, dans ce qu’il a de plus destructif et de plus "désagrégeant", et il est d’ailleurs évident qu’il n’y a que les influences de cette sorte qui soient vraiment aptes à agir en vue de la dissolution ; dès lors, il n’est pas difficile de se rendre compte que tout ce qui tend à favoriser et à étendre ces "interférences" ne correspond, consciemment ou inconsciemment, qu’à une nouvelle phase de la déviation dont le matérialisme représentait en réalité un stade moins "avancé", quelles que puissent être les apparences extérieures, qui sont souvent fort trompeuses.
Nous devons en effet remarquer à ce propos que des "traditionalistes" mal avisés se réjouissent inconsidérément de voir la science moderne, dans ses différentes branches, sortir quelque peu des limites étroites où ses conceptions s’enfermaient jusqu’ici, et prendre une attitude moins grossièrement matérialiste que celle qu’elle avait au siècle dernier ; ils s’imaginent même volontiers que, d’une certaine façon, la science profane finira par rejoindre ainsi la science traditionnelle (qu’ils ne connaissent guère et dont ils se font une idée singulièrement inexacte, basée surtout sur certaines déformations et "contrefaçons" modernes), ce qui, pour des raisons de principe sur lesquelles nous avons souvent insisté, est chose tout à fait impossible. Ces mêmes "traditionalistes" se réjouissent aussi, et peut-être même encore davantage, de voir certaines manifestations d’influences subtiles se produire de plus en plus ouvertement, sans songer aucunement à se demander quelle peut bien être au juste la "qualité" de ces influences (et peut-être ne soupçonnent-ils même pas qu’une telle question ait lieu de se poser) ; et ils fondent de grands espoirs sur ce qu’on appelle aujourd’hui la "métapsychique" pour apporter un remède aux maux du monde moderne, qu’ils se plaisent généralement à imputer exclusivement au seul matérialisme, ce qui est encore une assez fâcheuse illusion. Ce dont ils ne s’aperçoivent pas (et en cela ils sont beaucoup plus affectés qu’ils ne le croient par l’esprit moderne, avec toutes les insuffisances qui lui sont inhérentes), c’est que, dans tout cela, il s’agit en réalité d’une nouvelle étape dans le développement, parfaitement logique, mais d’une logique vraiment "diabolique", du "plan" suivant lequel s’accomplit la déviation progressive du monde moderne ; le matérialisme, bien entendu, y a joué son rôle, et un rôle incontestablement fort important, mais maintenant la négation pure et simple qu’il représente est devenue insuffisante ; elle a servi efficacement à interdire à l’homme l’accès des possibilités d’ordre supérieur, mais elle ne saurait déchaîner les forces inférieures qui seules peuvent mener à son dernier point l’œuvre de désordre et de dissolution.
L’attitude matérialiste, par sa limitation même, ne présente encore qu’un danger également limité ; son "épaisseur", si l’on peut dire, met celui qui s’y tient à l’abri de toutes les influences subtiles sans distinction, et lui donne à cet égard une sorte d’immunité assez comparable à celle du mollusque qui demeure strictement enfermé dans sa coquille, immunité d’où provient, chez le matérialiste, cette impression de sécurité dont nous avons parlé ; mais, si l’on fait à cette coquille, qui représente ici l’ensemble des conceptions scientifiques conventionnellement admises et des habitudes mentales correspondantes, avec l’"endurcissement" qui en résulte quant à la constitution "psycho-physiologique" de l’individu , une ouverture par le bas, comme nous le disions tout à l’heure, les influences subtiles destructives y pénétreront aussitôt, et d’autant plus facilement que, par suite du travail négatif accompli dans la phase précédente, aucun élément d’ordre supérieur ne pourra intervenir pour s’opposer à leur action. On pourrait dire encore que la période du matérialisme ne constitue qu’une sorte de préparation surtout théorique, tandis que celle du psychisme inférieur comporte une "pseudo-réalisation", dirigée proprement au rebours d’une véritable réalisation spirituelle […].

Auteur: Guénon René

Info: Dans "Le règne de la quantité" pages 165-167

[ new age ] [ spiritualité moderne ] [ satanisme ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

savoirs consensuels

Le monde objectif de l'expérience humaine est donc au mieux un mélange de nature et de culture, mais un mélange dans lequel les modèles formels prédominants proviennent davantage de la culture que de la nature. Ces modèles formels de la culture sous-tendent la présentation des objets dont nous faisons directement l'expérience. La situation à cet égard n'était en fait pas différente pour les anciens ou les médiévaux, mais ils n'étaient pas conscients de ce fait. Qui sont nos parents ? Voilà ce dont dépend le système de parenté qui prévaut dans la culture qui nous a imprégné. Quelle est notre religion ? Si l'on tient compte des exceptions individuelles, là encore la réponse dépend principalement du contexte et des circonstances historiques au sein desquelles nous avons grandi.  

Les modernes, s'éveillant à tout cela, avaient de bonnes raisons de voir dans les objets expérimentés de pures créations du travail de l'esprit humain. Même la science pourrait être réduite à cela : telle fut l'expérience kantienne, entreprise sous l'impulsion des discours de Hume qui affirmait qu'il n'y avait rien de plus à expérimenter que les associations habituelles entre les objets. Si toutes les pensées reflètent de simples habitudes, et si tous les objets ne peuvent être considérés que comme des auto-représentations mentales, quels que soient les doutes que nous puissions avoir sur la base du "bon sens" quant à l'idée d'un monde indépendant de nous, le scepticisme demeure la garantie finale de toute connaissance. Ce qui, pour Kant, c'était inacceptable. Il pouvait avaler tout ce que ses prédécesseurs traditionnels lui avaient enseigné, mais pas le scepticisme. Leur erreur, selon lui, avait été de réduire la connaissance à la subjectivité - c'est-à-dire qu'elle consistait à attribuer les idées de l'esprit individuel aux objets de l'expérience directe. Ils ne pouvaient saisir que la connaissance est essentiellement de structure relationnelle, et que les relations sont au-dessus du sujet. Ainsi, les idées dans l'individu donnent naissance ou "fondent" des relations cognitives avec les objets. Mais ces objets sont ce sur quoi les relations finissent, et non ce sur quoi les relations sont fondées et d'où elles proviennent. Et la manière dont ces relations sont générées pour donner forme aux objets est conforme à un modèle intégré, a-priori, dans l'esprit humain.

Or, lorsqu'il s'agit des objets de la connaissance spécifiquement scientifique, selon Kant, nous avons affaire à une universalité et une nécessité qui proviennent de l'esprit et non d'une simple habitude ou d'une généralisation usuelle. Même si le monde extérieur reste inconnaissable en tant que tel, nous savons néanmoins qu'il est là ; et notre façon de le penser intellectuellement n'est pas capricieuse ou culturellement relative mais universelle et nécessaire, identique pour tous les humains. Même si nous ne connaissons que ce que nos représentations donnent à connaître, et que ces représentations sont entièrement le fait de notre esprit, il n'en reste pas moins qu'elles deviennent des objetsm non par association, mais bien a priori, indépendamment des aléas de la coutume et de l'expérience individuelle ; et leur contenu cognitif n'est pas subjectif mais objectif, c'est-à-dire donné au terme de relations que nos représentations ont été les seules à trouver. Le noyau scientifique de l'expérience humaine, contrairement à la conviction animant les scientifiques eux-mêmes, mais selon le philosophe moderne Kant, est prospectivement le même pour tous parce que le mécanisme sensoriel générant les représentations impliquées et le mécanisme conceptuel organisant les relations découlant de ces représentations est le même pour tous : des causes semblables entraînent toujours toujours des effets semblables. Telle est la version de Kant de l'adage médiéval, agens facit simile sibi . Grâce à ce simple expédient, Kant pensait avoir réglé l'objectivité de la connaissance et mis à distance le scepticisme. Le scandale de ne pas être en mesure de prouver qu'il existe un monde extérieur à l'esprit humain était ainsi supprimé par la démonstration qu'effectivement il y a un domaine inconnaissable qu'on ne peut pas atteindre, et ce domaine est précisément le monde extérieur, dont on sait avec certitude qu'il existe puisqu'il stimule nos représentations (via la perception sensorielle) et inconnaissable en soi (avec un mécanisme de concepts qui ne produisent de la connaissance que par corrélation avec les représentations des intuitions sensorielles pour aboutir un autre domaine inatteignable, le noumène, pour qui essaye d'aller  au-delà de la limite de ce qui est représenté par ces  perceptions sensorielles).

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam

[ limitation anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel

origine de la vie

Pouvons-nous créer les molécules de la vie ? 

Des chercheurs de l’Université de Floride exploitent toute la puissance du supercalculateur HiPerGator pour montrer que des molécules peuvent se former naturellement dans le bon environnement.

Les manuels de biologie de base vous diront que toute vie sur Terre est constituée de quatre types de molécules : les protéines, les glucides, les lipides et les acides nucléiques. Et chaque groupe est vital pour tout organisme vivant.  

Mais quoi si les humains pouvaient réellement montrer que ces " molécules de la vie ", telles que les acides aminés et les bases de l’ADN, peuvent se former naturellement dans le bon environnement ?  Des chercheurs de l’Université de Floride utilisent HiPerGator – le superordinateur le plus rapide de l’enseignement supérieur américain – pour tester cette expérience.

HiPerGator – avec ses modèles d’IA et sa vaste capacité d’unités de traitement graphique, ou GPU (processeurs spécialisés conçus pour accélérer les rendus graphiques) – transforme le jeu de la recherche moléculaire. Jusqu'à il y a dix ans, mener des recherches sur l'évolution et les interactions de vastes collections d'atomes et de molécules ne pouvait se faire qu'à l'aide de simples expériences de simulation informatique ; la puissance de calcul nécessaire pour gérer les ensembles de données n’était tout simplement pas disponible.

C'est maintenant le cas, grâce à HiPerGator. À l'aide de ce supercalculateur, UF Ph.D. L'étudiant Jinze Xue (du Roitberg Computational Chemistry Group) a pu mener une expérience à grande échelle sur la chimie de la Terre pendant les vacances d'hiver 2023. Xue a utilisé plus de 1 000 GPU A100 sur HiPerGator et a réalisé une expérience de dynamique moléculaire sur 22 millions d'atomes qui a identifié 12 acides aminés, trois bases nucléiques, un acide gras et deux dipeptides. La découverte de molécules plus grosses,  qui n’aurait pas été possible dans des systèmes informatiques plus petits, a constitué une réussite importante.

" Nos précédents succès nous ont permis d'utiliser l'apprentissage automatique et l'IA pour calculer les énergies et les forces sur les systèmes moléculaires, avec des résultats identiques à ceux de la chimie quantique de haut niveau mais environ 1 million de fois plus rapides ", a déclaré Adrian Roitberg, Ph.D. , professeur au département de chimie de l'UF qui utilise l'apprentissage automatique pour étudier les réactions chimiques depuis six ans. " Ces questions ont déjà été posées mais, en raison de limitations informatiques, les calculs précédents utilisaient un petit nombre d’atomes et ne pouvaient pas explorer la plage de temps nécessaire pour obtenir des résultats. Mais avec HiPerGator, nous pouvons le faire. "

Erik Deumens, Ph.D., directeur principal d'UFIT Research Computing, a expliqué comment l'utilisation complète d'HiPerGator a été possible.

" HiPerGator a la capacité unique d'exécuter de très grands calculs (‘hero) qui utilisent la machine entière, avec le potentiel de conduire à des percées scientifiques et scientifiques ", a déclaré Deumens. " Lorsque nous avons découvert le travail effectué par le groupe du Dr Roitberg, , nous l'avons approché pour essayer un run 'héros' avec le code qu'il a développé. "

L’émergence de l’IA et des GPU puissants pourra permettre de réaliser de telles simulations scientifiques gourmandes en données – des calculs que les scientifiques ne pouvaient imaginer il y a seulement quelques années. 

"En utilisant des méthodes d'apprentissage automatique, nous avons créé une simulation en utilisant l'ensemble complet de GPU HiPerGator", a déclaré Roitberg. " Nous avons pu observer en temps réel la formation de presque tous les acides aminés (alanine, glycine, etc.) et de nombreuses molécules très complexes. C’était très excitant à vivre.

Ce projet fait partie d'un effort continu visant à découvrir comment des molécules complexes peuvent se former à partir d'éléments de base et à rendre le processus automatique grâce à de grandes simulations informatiques. Roitberg et son groupe de recherche ont passé de nombreuses heures à travailler avec les membres de l'UFIT. Ying Zhang, responsable du support IA d'UFIT, a dirigé l'expérience. 

" Ying a constitué une équipe composée du personnel de Research Computing et du personnel de NVIDIA pour aider à faire évoluer les calculs, fournir des conseils et une aide inestimables et accélérer l'analyse des données au point où les analyses ont été effectuées en seulement sept heures (au lieu des  heures  jours que nous pensions initialement que cela prendrait) ", a déclaré Roitberg. " Nous nous sommes rencontrés chaque semaine, de la conception initiale aux résultats finaux, dans le cadre d’une collaboration très fructueuse. "

Les résultats, et le peu de temps avec lequel HiPerGator a pu les fournir, ont été révolutionnaires, rapprochant les chercheurs de la réponse aux questions sur la formation des molécules complexes. Et le fait que Roitberg ait pu exécuter ce calcul montre que l'UF a la capacité de prendre en charge des " exécutions de héro " ou des " moonshot calculations " qui font avancer les projets scientifiques, d'ingénierie et universitaires.

"C'est une excellente opportunité pour les professeurs de l'UF", a déclaré Roitberg. " Avoir HiPerGator en interne – avec un personnel incroyable prêt à aller au-delà des attentes pour aider les chercheurs à produire une science révolutionnaire comme celle-ci – est quelque chose qui rend mes collègues non-UF très jaloux. "

Auteur: Internet

Info: https://news.ufl.edu/2024/02/molecules-of-life/ *Les travaux de calcul informatique qui nécessitent plus de 256 nœuds sont définis comme travaux de "héro". ** Moonshot projects : projet ambitieux, exploratoire et novateur, entrepris sans garantie de rentabilité ou d'avantages à court terme et, peut-être, sans une étude complète des risques et des avantages potentiels.

 

Commentaires: 0

Ajouté à la BD par miguel

protestantisme

Un homme du tempérament de Luther, s’il ouvre un livre : il n’y lit qu’une pensée, la sienne. Il n’apprend rien qu’il ne porte en lui. Un mot, une phrase, un raisonnement le frappent. Il s’en empare. Il le laisse descendre en lui, profond, plus profond, jusqu’à ce que, par-dessous les surfaces, il aille toucher quelque point secret, ignoré jusqu’alors du lecteur lui-même, et d’où, brusquement, jaillit une source vive — une source qui dormait, attendant l’appel et le choc du sourcier : mais les eaux étaient là, et leur force contenue. N’ayons donc point scrupule à négliger ici tout un monde de recherches patientes et méritoires. Ne retenons qu’un fait, parmi tant d’autres.

Luther, semble-t-il, a peu étudié à Erfurt les grands systèmes scolastiques du XIIIe siècle. Le thomisme en particulier paraît lui être demeuré étranger : rien d’étonnant, et s’il l’avait connu, il n’en aurait tiré qu’un profit violemment négatif. Ce qu’il a lu, en dehors de quelques mystiques et, notamment, de Tauler (dont on nous dit d’ailleurs, qu’il le comprit mal et qu’il en dénatura la pensée sans scrupule : entendons qu’il en fit librement son profit, sans se soucier de savoir si ses interprétations s’accordaient, ou non, avec la doctrine du disciple d’Eckhart ; il lui suffisait qu’elles rentrassent dans les cadres de sa spéculation à lui, Luther) — ce qu’il lisait, c’était surtout le Commentaire sur les Sentences du nominaliste Gabriel Biel († 1495), l’introducteur principal de l’occamisme en Allemagne, le "roi des théologiens"... tout au moins de Tübingen, l’ami de Jean Trithème et de Geiler de Kaisersberg. Vieilli, Luther se vantera de savoir encore par cœur des pages entières du célèbre docteur.

Or que trouvait Luther dans les écrits de Biel, lorsqu’il les relisait avec l’ardent souci d’y découvrir une solution aux difficultés dont il ne savait sortir ? Deux théories, entre beaucoup, et qui, lorsqu’on les énonce à la suite l’une de l’autre, paraissent contradictoires : ce n’est pas le lieu ici, ni le moment d’exposer comment, pour qui connaît même sommairement la pensée d’Occam, cette contradiction s’évanouit. Biel prétendait d’abord que, les suites du péché originel s’étant fait sentir surtout dans les régions basses, sur les puissances inférieures de l’âme humaine, la raison et la volonté demeurent, au contraire, à peu près telles qu’avant la faute — l’homme pouvant, par les seules forces de sa nature, observer la loi et accomplir les œuvres prescrites sinon "selon l’intention du législateur", du moins suivant "la substance du fait". Et ensuite que, par ces seules et mêmes forces, la volonté humaine étant capable de suivre le commandement de la droite raison, l’homme peut aimer Dieu par-dessus toutes choses. Cet acte d’amour suprême et total crée en lui une disposition suffisante pour qu’il puisse obtenir, tout pécheur qu’il soit, la grâce sanctifiante et la rémission des péchés.

Seulement, en même temps et puisqu’il rattachait sa pensée à celle d’Occam, Biel réservait les droits de la Toute-Puissance divine. Droits absolus, sans bornes ni limitations, étendus jusqu’à l’arbitraire. Et, par exemple, enseignait le théologien de Tübingen, du vouloir divin et de lui seul, les lois morales tiraient sens et valeur. Les péchés étaient péchés et non pas bonnes actions, parce que Dieu le voulait ainsi. Dieu voudrait le contraire, le contraire serait ; le vol, l’adultère, la haine de Dieu même deviendraient des actions méritoires. Dieu n’a donc, en l’homme, à punir ou à récompenser ni fautes propres ni mérites personnels. Les bonnes actions, pour qu’elles obtiennent récompense, il faut seulement que Dieu les accepte. Et il les accepte quand il lui plaît, comme il lui plaît, s’il lui plaît, pour des raisons qui échappent à la raison des hommes. Conclusion : la prédestination inconditionnelle et imprévisible...

Ainsi avait professé, ainsi professait toujours après sa mort, par ses livres et par ses disciples, Gabriel Biel le révéré. Qu’on se représente maintenant, en face de ces ouvrages, soumis à ces doctrines, ce Luther ardent, épris d’absolu, inquiet par ailleurs et tourmenté, qui cherchait partout à étancher son ardente soif de piété, mais à se délivrer également de ses scrupules et de ses angoisses. On lui disait, avec Biel : Efforce-toi. Tu le peux. Dans le plan humain, l’homme, par ses seules forces naturelles, par le jeu de sa volonté et de sa raison peut accomplir la loi ; il peut parvenir, finalement, à aimer Dieu par-dessus toutes choses. — Et Luther s’efforçait. Il faisait le possible, selon sa nature, et l’impossible, pour que naisse en lui cette dispositio ultimata et sufficiens de congruo ad gratiae infusionem dont parle Biel en son langage. En vain. Et quand, après tous ses efforts, son âme anxieuse de certitude ne trouvait point d’apaisement ; quand la paix implorée, la paix libératrice ne descendait point en lui — on devine quel sentiment d’amère impuissance et de vrai désespoir le laissait prostré devant un Dieu muet — comme un prisonnier au pied d’un mur sans fin...

Peu à peu, dans sa tête qui s’égarait, d’autres pensées surgissaient. Les bonnes actions pour qu’elles fussent méritoires, Biel l’enseignait : il faut simplement, et il suffit, que Dieu les accepte. Était-ce donc que Dieu n’acceptait point ses bonnes actions à lui ? qu’il le rejetait au nombre des réprouvés par un décret incompréhensible et irrévocable de sa volonté ? Ah ! comment savoir et quelle atroce angoisse naissait d’un tel doute !

Ainsi la doctrine dont on le nourrissait, cette doctrine des gabriélistes issue de l’occamisme et dont Denifle le premier a marqué avec force et vigueur l’influence tenace et persistante sur Luther   — cette doctrine qui, tour à tour, exaltait le pouvoir de la volonté humaine puis l’humiliait en ricanant devant l’insondable Toute-Puissance de Dieu : elle ne tendait les forces d’espérance du moine que pour les mieux briser, et le laisser pantelant, dans l’impuissance tragique de sa débilité.

Auteur: Febvre Lucien

Info: Un destin : Martin Luther, PUF, 1968, pages 25 à 27

[ origines ] [ inspirateur ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

spéculation

Expérience religieuse et cerveau.
Une étude relie certaines expériences religieuses, ou de changement de vie, comme la renaissance (born again), avec une atrophie de l'hippocampe.
L'article "Facteurs religieux et atrophie hippocampale en fin de vie" d'Amy Owen et ses collègues de Duke University présente une avance importante pour notre compréhension croissante du rapport entre cerveau et religion. L'étude a montré une plus grande atrophie de l'hippocampe chez les individus qui s'identifient avec des groupes religieux spécifiques, de même que pour ceux que ceux sans affiliation religieuse. C'est un résultat étonnant, sachant que beaucoup d'études antérieures ont montré que la religion avait des effets potentiellement bénéfiques sur les fonctions du cerveau, l'inquiétude et la dépression.
Un certain nombre d'études ont évalué les effets aigus des pratiques religieuses, telles que la méditation et la prière, sur le cerveau humain. Un plus petit nombre d'études ont évalué les effets à plus long terme de la religion sur le cerveau. De telles études, comme celle-ci, se sont concentrées sur des différences du volume du cerveau ou de certaines fonctions du cerveau chez les personnes fortement impliquée dans la méditation ou les pratiques spirituelles, par comparaison avec celles qui ne le sont pas.
Mais très peu d'études ont exploré les effets longitudinaux de la pratique de la méditation ou des activités spirituelles en évaluant des sujets en deux points temporels différents.
Ici, Owen et les autres ont utilisé le MRI pour mesurer le volume de l'hippocampe, une structure centrale du système limbique, impliquée dans l'émotion aussi bien que pour la formation de la mémoire. Ils ont évalué le MRI de 268 hommes et femmes agés de 58 et plus, recrutés à l'origine pour les résultats Neuro Cognitifs sur la dépression lors d'une ancienne étude. Les gens testés avaient également répondu à plusieurs questions concernant leur croyance et affiliations religieuses. L'étude d'Owen et ses collègues est unique parce qu'elle se concentre spécifiquement sur des individus religieux en les comparant à des gens non-religieux. Cette étude a également séparé les individus entre ceux qui qui "born again" ou ceux qui ont eu leur vie changée par une expérience religieuse.
Les résultats ont montré une atrophie hippocampale sensiblement plus grande chez les individus ayant rapporté une expérience religieuse de "born again". En outre, ils ont montré une atrophie hippocampale sensiblement plus grande chez les protestants, les catholiques avec ceux sans affiliation religieuse, comparée aux protestants ne s'identifiant pas comme born again.
Les auteurs présentent l'hypothèse que l'atrophie hippocampal plus grande dans les groupes religieux choisis pourrait être liée au stress. Ils arguent du fait que certains individus d'une minorité religieuse, ou ceux qui luttent avec leur croyance, expériencent des niveaux plus élevés de stress. Ceci causant un plus grand dégagement d'hormones d'effort, connues pour diminuer le volume de l'hippocampe avec le temps. Ceci pourrait également expliquer le fait que tout aussi bien les les non-religieux que quelques religieux aient de plus petits volumes hippocampals.
Cette hypothèse intéresse. Beaucoup d'études ont montré les effets positifs de la religion et de la spiritualité sur la santé mentale, mais il y a également abondance d'exemples d' impacts négatifs. Il y a une évidence que les membres de groupes religieux qui sont persécutés, ou dans une minorité, pourraient avoir plus de stress et d'inquiétude quand ils doivent naviguer dans la société. D'autres fois, une personne pourrait percevoir Dieu comme celui qui punit et donc avoir un stress significatif face à une lutte religieuse. D'autres éprouvent un conflit religieux en raison d'idées contradictoires entre leur tradition religieuse et/ou leur famille. Même une expérience très positive de changement de vie pourrait être difficiles à incorporer dans une système religieux donné pour la croyance de l'individu et ceci pourrait également mener à l'effort et à l'inquiétude. Les transgressions religieuses perçues peuvent causer une angoisse émotive et psychologique. Il peut être difficile de distinguer cette douleur "religieuse" et "spirituelle" de la douleur physique pure. Et tous ces phénomènes peuvent avoir des effets potentiellement négatifs sur le cerveau.
Ainsi, Owen et ses collègues posent certainement une hypothèse plausible. Ils citent également certaines des limitations de leurs trouvailles, tels que la petite dimension de l'échantillon testé. Plus important la relation causale entre ces découvertes dans le cerveau avec la religion reste très difficile à établir. Est il possible, par exemple, que les personnes avec de plus petits volumes hippocampals, soient plus prédestinées à avoir un tropisme religieux spécifique, dessinant la flèche causale dans l'autre direction ? De plus, il se pourrait que les facteurs amenant aux événements de "Changement de vie" sont importants et non pas simplement l'expérience elle-même.
Puisque l'atrophie de cerveau reflète tout qui arrive à une personne jusqu'à ce point, on ne peut pas définitivement conclure que l'expérience la plus intense était en fait la chose qui a eu pour conséquence l'atrophie du cerveau. Il y a donc beaucoup de facteurs potentiels qui pourraient mener aux résultats rapportés. (Ils est également quelque peu problématique que l'effort lui-même ne se soit pas corrélé avec les volumes hippocampal puisque c'est une des hypothèses potentielles proposées par les auteurs. Ce qui de fait parait miner les conclusions.) L'on pourra alors se demander s'il est possible que les gens qui sont plus religieux souffrent d'un plus grand stress inhérent, mais que leur religion les aide à se protéger d'une certaine manière. La religion est fréquemment citée comme un important mécanisme pour faire face au stress et à l'effort.
Cette nouvelle étude est intrigante et importante. Elle nous incite à réfléchir davantage sur la complexité du rapport entre religion et cerveau. Ce champ d'étude, désigné sous le nom du neuro théologie, pourrait faire avancer notre compréhension de la religion, de la spiritualité et du cerveau. D'autres études à venir sur les effets aigus et chroniques de la religion avec le cerveau seront très intéressantes pour valider certaines de ces idées. Pour l'instant, nous pouvons être certains que la religion affecte le cerveau - mais nous ne savons pas comment.

Auteur: Newberg Andrew

Info: Scientific American, 31 mai 2011

[ biologie ] [ esprit ]

 

Commentaires: 0

citation s'appliquant à ce logiciel

Sache, toi qui badaude dans les méandres de FLP, qu'il n'est pas ici question de taxinomie arrêtée, comme celles que pouvait craindre Perec ; mais du choc de l'esprit du visiteur lecteur avec certaines formulations rencontrées. Choc qui génère, entre autres possibilités, celle d'interagir avec les participants, via les citations et la discussion de leurs tags-étiquettes. Ou d'orienter une pensée par la mémorisation d'extraits dans un ordre voulu, voire en les enchevêtrant à ta manière. 

Il y avait les lexiques et autres listes antiques. Voici maintenant celles, intriquées, de la Base de Données FLP. 

Pour le coup nous voilà situés une petite marche plus haut - ou plus bas -, ce qui fait une grande différence au vu des corrélations démultipliées qui s'ensuivent. Corrélations sous forme d'"associations induites" bien recensées, qui s'exponentialisent, même si ce ce dernier verbe est inadéquat. Ainsi peuvent se développer et/ou disparaitre des classifications croisées, en général induites par les significations-sources-étymologiques et/ou les interprétation du sens (sémantique) des textes-extraits. Mais pas que, puisque d'autres facteurs, topologiques, temporels, de genres... jouent aussi un rôle. 

Tout ça sans cesse en mouvement.

Notons ici qu'un individu dont la vie est terminée se retrouve "figé". Le voilà alors idée-personnage-texte-époque dont on peut étudier certaines entrailles (dans le désordre et au hasard : par contexte de vie, influence historique, adn, apparence, actions, statistiques des écrits, nb de conjoints, d'enfants, etc.) pour peut-être déceler quelques rapport/analogies avec d'autres personnages-situations tels que les textes on pu les fixer, ici en français. Secondéité-monade-aboutie, selon cette idée

Dit autrement : avec FLP on joue un peu plus avec les morts qu'avec les vivants. Le langage est ainsi fait.  

Mais comment organiser toutes ces mémoires écrites, de manière à "mieux" pouvoir les explorer, ne pas s'y perdre... et éventuellement en avoir usage ? 

C'est ici que l'analogie avec l'ADN et sa structuration "sur base quatre" viennent à l'esprit. On sait déjà que les "restes de très anciens mécanismes mémorisés (junk adn)", via des processus que l'on commence à mettre au jour, peuvent être ré-activés et réutilisés lors de développements postérieurs du vivant. On voit donc là des fils de mémoires longs, profonds... bien antérieurs aux mécanismes-résonnances épigénétiques "dedans-dehors" adaptatifs. Epigénétique qui nous fait aussi voir que les monades sont moins étanches que ce que pensait Leibniz.

Pour ce qu'on en comprend, l'ADN est avant tout la mémorisation, complexe et structurée (d'une manière qui nous échappe encore beaucoup), des événements anciens qui ont participé à la construction des émergences incarnées que nous qualifions de vivantes. Mémoire sur la durée qui fait apparaitre nos langage, dictionnaires, et autres taxonomies lexicologiques comme dérisoires et volatils. 

Pensons maintenant à l'important rôle joué par le vivant dans le façonnage de notre planète matrice, par exemple via les processus de biominéralisation comme la formation des plaques calcaires d'algues unicellulaires, l'émergence des squelettes externes de nombreux invertébré, ou internes des vertébrés, etc. qui amènent vers la terre-humus et autres falaises de craies de la Manche franco-britannique. La vie biologique a développé des structures qui, en s'accumulant, devinrent substrats essentiels, paysages et décors aussi, de nos existences. Le concept de Gaïa ne dit pas autre chose. 

Comment ne pas voir que cette mémoire-là - DNA -, en se développant-évoluant, extrapole, à partir des éléments minéraux, pour, en bricolant d'étonnante façon leurs atomes-molécules, arriver jusqu'à nous ? 

Même si tout ça n'est que le point de vue local d'un singe debout et parlant, lui-même dégueuli transitoire de ces longs tâtonnements - pas si biscornus au final puisqu'ils développent une hyper-complexité efficace... N'allons-nous pas jusqu'à marcher sur la lune, ah ah ah...

Est-ce alors raisonnable de tenter la comparaison de nos systèmes de classifications-mémorisations lexicologiques sur le temps long avec le codage ADN ?  

Ou, encore plus simple et évident : La Source Matricielle qui nous expectore conserve-t'elle en filigrane, de manière discrète, un principe tétravalent que nous ne savons pas voir comme essentiel au-delà du fait qu'il constitue les possibilités de base de l'atome du carbone ? Méta-gouverne qui oriente et pilote tant bien que mal la bio-évolution et donc l'humanité. Double dualité dont il faudrait s'inspirer pour nos représentations diachronico-taxonomiques. 

Ici on se prend à rêver quelque lien avec la grande harmonie sous-jacente et mystique qui semble présider à la répartition des nombres premiers de la conjecture de Riemann... Pour rapidement voir ressurgir, en miroir, une fois encore, ce qui ressemble à une dualité prison, attribut de l'observateur. 

Peut-être serait-il temps de réaliser que cette approche bipôles (actuellement plutôt sur polarité masculine ?), grandement conditionnée par les grecs anciens puis consolidée par les routines et habitudes de pensées occidentales-rationalistes, mérite une remise en question. 

Euclide a réfléchi en se pensant par rapport à une surface, Newton s'est mis à la place de la matière, Einstein de la lumière. On attend désormais une concorde (de) scientifique(s) chercheur(s), dotée(s) de capacités de modélisation suffisamment puissantes pour franchir un nouveau cap en prenant exemple sur la méthodologie de cette force subjacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a ainsi généré. 

Il est imaginable que c'est par ce pas supplémentaire, (élargissant notre conscience ?), que le prochain vrai saut scientifique et conceptuel humain pourra se produire 

Si oui, qui trouvera le bon angle d'attaque, la faille qu'on pourra ensuite élargir pour développer un formalisme nouveau. Socle d'une prise de distance avec les limitations de nos sens et de nos pulsions duales ? Formalisme apte à gérer des métissages  conceptuels tels que "rigoureuse souplesse" ou "rationalisme émotionnel". 

En clair la mise en oeuvre d'une logique améliorée, mieux émancipée de son - ou de ses - langage(s). 

FLP s'y attaque à sa manière, par un tentative de classification lexicographique intriquée, diachronique...  tâtonnante. Entreprise nécessairement communautaire, aventureuse, légèrement stochastique... et peut-être pré-mémétique.

Auteur: Mg

Info: déc 2022

[ spéculation ] [      dépassement ] [     codage tétravalent ] [      futurologie ] [    gnose ] [    théologie ] [    phylogénie ] [    agencement diachronique ] [    épistémologie ] [ FLP mégalo ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel

bornages notionnels

Q) - Peux-tu expliquer autrement cette phrase "le vivant est considéré comme non ergodique par qu'il n'explore qu'une toute petite partie de son espace de phase."

R) - L'idée de base de cette phrase est que la vie est un système complexe, avec de nombreuses possibilités. Cependant, la vie n'explore qu'une petite partie de ces possibilités. Il existe un nombre infini de combinaisons possibles de gènes, de protéines, de cellules, d'organismes et d'écosystèmes. Cependant, la vie n'a exploré qu'une petite partie de ces possibilités.

Il y a plusieurs raisons à cela. Tout d'abord, la vie est limitée par les lois physiques. Les lois physiques déterminent quelles combinaisons de gènes et de protéines sont possibles. 

Deuxièmement, la vie est limitée par les ressources disponibles. Les ressources disponibles limitent le nombre d'organismes qui peuvent vivre dans un environnement donné. 

Troisièmement, la vie est limitée par le hasard. Le hasard joue un rôle important dans l'évolution, car il peut conduire à des mutations génétiques qui peuvent donner naissance à de nouvelles formes de vie. 

En raison de ces limitations, la vie n'explore qu'une petite partie de son espace de phase. Cela signifie que les résultats de l'évolution sont imprévisibles.

Q) - Merci. Peux-tu expliciter "espace de phase" en terme électrique

R) - En termes électriques, l'espace de phase est l'ensemble des états possibles d'un système électrique. Il est décrit par un ensemble de variables, telles que la tension, le courant, l'inductance, la capacité et la résistance.

Q) - Dans mon esprit "espace de phase" correspond aussi à "bande passante"

R) Oui, il y a une certaine similitude entre l'espace de phase et la bande passante.

En termes électriques, la bande passante est la plage de fréquences qu'un système électrique peut transmettre sans distorsion.

L'espace de phase, quant à lui, est l'ensemble des états possibles d'un système électrique.

La bande passante peut être considérée comme une restriction de l'espace de phase. En effet, un système électrique ne peut pas transmettre des fréquences qui dépassent sa bande passante.

Par exemple, un filtre coupe-bas ne peut transmettre que des fréquences inférieures à sa fréquence de coupure.

Dans ce cas, la bande passante du filtre est une restriction de l'espace de phase du signal qui est transmis par le filtre.

Cependant, il existe également des différences entre l'espace de phase et la bande passante.

L'espace de phase est un concept plus général que la bande passante. Il peut être utilisé pour décrire le comportement de tout système, pas seulement des systèmes électriques.

La bande passante, quant à elle, est un concept plus spécifique. Il est utilisé pour décrire le comportement des systèmes électriques qui transmettent des signaux.

En conclusion, l'espace de phase et la bande passante sont deux concepts liés, mais qui ne sont pas identiques. L'espace de phase est un concept plus général, tandis que la bande passante est un concept plus spécifique.

Q) - Merci. Ce sont deux termes qui parlent des limites de concepts issus du réel : quel pourrait être un un concept encore plus général dans cet ordre d'idées

R) - Un concept encore plus général dans cet ordre d'idées pourrait être celui de limite de l'appréhension.

Ce concept désigne l'idée que notre capacité à comprendre le monde est limitée par notre propre nature. Nous sommes des êtres finis, avec des sens limités, et notre compréhension du monde est nécessairement biaisée par nos propres expériences et nos propres perspectives.

Par exemple, notre compréhension de la physique est limitée par nos propres instruments de mesure. Nous ne pouvons pas observer des particules subatomiques directement, et notre compréhension de la matière est donc nécessairement basée sur des modèles mathématiques. 

De même, notre compréhension de la vie est limitée par nos propres sens. Nous ne pouvons pas voir les bactéries ou les virus, et notre compréhension de la biologie est donc nécessairement basée sur des extrapolations à partir des organismes que nous pouvons observer.

Enfin, notre compréhension de la société est limitée par nos propres expériences. Nous ne pouvons pas comprendre les cultures qui sont très différentes de la nôtre, et notre compréhension du monde social est donc nécessairement biaisée par nos propres valeurs et nos propres normes. 

Le concept de limite de l'appréhension est important car il nous rappelle que notre compréhension du monde est toujours imparfaite. Nous devons être conscients de cette limite pour éviter de tomber dans le piège de l'absolutisme ou de l'essentialisme.

Voici quelques autres concepts qui pourraient être considérés comme encore plus généraux que les deux que vous avez mentionnés :

L'incomplétude : L'idée que nous ne pouvons jamais connaître toute la vérité sur le monde.

L'incertitude : L'idée que nous ne pouvons jamais être sûrs de nos connaissances.

La relativité : L'idée que la vérité est relative à notre point de vue.

Notre compréhension du monde est toujours imparfaite et est toujours sujette à évolution.

Q) - Il y a aussi les limitations apportées pas nos propres systèmes de codages : langages, écritures, musique, mathématiques.... Qui paraissent bien faibles par comparaison avec les possibilités de développement que montrent les mémoires génétiques sur base 4.

R) - 
Oui, c'est vrai. Nos systèmes de codage sont limités par notre propre nature. Nous sommes des êtres humains, avec un cerveau qui a évolué pour nous permettre de survivre et de nous reproduire dans notre environnement. Nos systèmes de codage sont donc adaptés à cette tâche, mais ils ne sont pas adaptés à la compréhension du monde dans toute sa complexité.

Les mémoires génétiques, quant à elles, sont codées sur une base 4. Cela signifie qu'elles peuvent coder un nombre beaucoup plus grand de combinaisons que les langages, les écritures, la musique ou les mathématiques, qui sont tous codés sur une base 2.

Cette différence de base permet aux mémoires génétiques de coder des informations beaucoup plus complexes. Par exemple, elles peuvent coder des informations sur la structure et la fonction des organismes, sur les interactions entre les organismes et sur l'environnement. 

Ces informations sont essentielles à la vie. Elles permettent aux organismes de se développer, de s'adapter et de survivre. 

Par conséquent, il est probable que les mémoires génétiques soient plus puissantes que nos propres systèmes de codage. Elles nous permettent de comprendre le monde dans une mesure qui nous est inaccessible. 

Cependant, il est important de noter que les mémoires génétiques ne sont pas parfaites. Elles sont également limitées par les lois de la physique et par les contraintes de l'évolution. 

Par exemple, les mémoires génétiques sont limitées par la taille de l'ADN. L'ADN est une molécule très longue, mais elle a une taille finie. Cela signifie que les mémoires génétiques ne peuvent pas coder une quantité infinie d'informations. 

De même, les mémoires génétiques sont limitées par les contraintes de l'évolution. L'évolution est un processus lent et progressif. Il est donc difficile pour les mémoires génétiques de coder des informations qui sont très différentes de celles qui ont été transmises par les générations précédentes. 

Malgré ces limitations, les mémoires génétiques sont un outil puissant qui nous permet de comprendre le monde. Elles nous permettent de comprendre la vie dans toute sa complexité et sa beauté.

Q) - D'autant qu'une bonne partie des fonctions de ces mémoires - le junk adn par exemples - nous échappent.

R) - Oui, c'est vrai. Une bonne partie des fonctions des mémoires génétiques nous échappent, notamment l'ADN non codant, également appelé ADN poubelle.

L'ADN non codant représente environ 98 % du génome humain. Il s'agit de séquences d'ADN qui ne codent pas pour des protéines.

Pendant longtemps, l'ADN non codant a été considéré comme inutile. Cependant, des recherches récentes ont montré que l'ADN non codant joue un rôle important dans la régulation de l'expression des gènes.

L'ADN non codant peut jouer un rôle dans la régulation de l'expression des gènes de plusieurs façons. Il peut servir de sites d'attachement pour les protéines qui régulent l'expression des gènes. Il peut également servir de matrice pour la transcription des ARN non codants, qui jouent également un rôle dans la régulation de l'expression des gènes.

L'ADN non codant peut également jouer un rôle dans d'autres processus biologiques, tels que la réparation de l'ADN, la réplication de l'ADN et l'intégration de l'ADN viral.

Cependant, nous ne comprenons pas encore entièrement les fonctions de l'ADN non codant. Il reste encore beaucoup de recherches à faire pour comprendre ce rôle important. Elle pourront nous aider à mieux comprendre le fonctionnement des cellules et des organismes. Elles pourraient également nous aider à développer de nouvelles thérapies pour les maladies génétiques.

Auteur: Google Bard chatbot

Info: 19 janv 2024

[ délimitations conceptuelles ]

 

Commentaires: 0

Ajouté à la BD par miguel