Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 57
Temps de recherche: 0.0511s

déresponsabilisation politique

(IT) - Certaines des technologies que vous qualifiez de "solutionnistes" sont utiles à de nombreuses personnes. Par exemple, des gadgets d'autosurveillance qui encouragent les gens à faire de l'exercice, à surveiller leur tension artérielle ou à les prévenir de leurs habitudes de conduite pour réduire leurs primes d'assurance.

(EM) - Les gens qui commencent à s'auto-surveiller ont du succès et n'ont rien à perdre. Si vous pouvez vous auto-suivre et prouver que vous êtes meilleur que la moyenne des gens - que vous êtes en meilleure santé ou que vous conduisez plus prudemment - vous pouvez obtenir une meilleure offre et réclamer certains avantages. Et là nous finirons par arriver au point où les gens qui décident de ne pas s'auto-suivre seront vus comme des gens qui ont quelque chose à cacher. Alors ils n'auront d'autre choix que de commencer à le faire. Très souvent, les gens de la Silicon Valley qui font la promotion de ces technologies disent que nous avons le choix, que nous avons une autonomie complète, et je dis que c'est un mythe.

(IT) - Mais ça peut quand même résoudre des problèmes ?

(EM) - Très souvent, les solutions d’auto-suivi sont commercialisées comme moyens de résoudre un problème. Vous pouvez surveiller combien de calories vous consommez, combien d'électricité vous utilisez. Ce qui semble bien en théorie, mais je crains que beaucoup de décideurs politiques préfèrent utiliser l'option de l’auto-suivi comme alternative à la réglementation de l'industrie alimentaire plutôt qu'engager des réformes plus structurelles, pour le changement climatique par exemple.

Toutes les solutions ont un coût. Le transfert d'une grande partie de la responsabilité à l'individu est une approche très conservatrice qui vise à préserver le système actuel au lieu de le réformer. Avec l’auto-suivi, nous finissons par optimiser notre comportement dans le cadre des contraintes existantes plutôt que de modifier les contraintes au départ. Tout ceci nous met dans une position de consommateurs plutôt que citoyens. Je crains que les décideurs politiques ne trouvent qu'il est beaucoup plus facile, moins cher et plus sexy d'inviter des gens comme Google à s'engager dans la résolution de certains de ces problèmes plutôt que de faire quelque chose de beaucoup plus ambitieux et radical.

Auteur: Morozov Evgeny

Info: "Auteur : Réfléchissez à deux fois à " l'Internet ". Entretien avec Ian Tucker, www.theguardian.com, 9 mars 2013

[ sociologie ] [ conformité assurantielle ] [ big brother assuranciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

écologie

Une étude prédit un effondrement planétaire irréversible imminent
En se basant sur des théories scientifiques, des modélisations d'écosystèmes et des preuves paléontologiques, une équipe de 18 chercheurs prédit que les écosystèmes terriens vont faire face à un effondrement imminent et irréversible.
Ils ont examiné l'accélération de la perte de biodiversité, les fluctuations climatiques de plus en plus extrêmes, l'interconnexion grandissante des écosystèmes et le changement radical dans le bilan énergétique global. Ils suggèrent que tous ces éléments constituent des précurseurs à l'apparition d'un état planétaire de seuil ou encore d'un point de basculement pour le siècle en cours. Les écosystèmes de la planète, en l'état de connaissances actuelles, pourraient rapidement et irréversiblement s'effondrer.
- Le dernier point de basculement dans l'histoire de la Terre est apparu il y a 12.000 ans, lorsque notre planète est passée de l'âge de glace, qui a duré 100.000 ans, à un état inter glacial, déclare Arne Mooers, professeur de biodiversité à l'Université Simon Fraser. Alors que les changements biologiques les plus extrêmes menant à notre état actuel sont apparus en seulement 1000 ans. C'est comme passer de l'état de bébé à l'âge adulte en moins d'une année. Et la planète est en train de changer encore plus vite aujourd'hui. Elle poursuit :
- Il y a une probabilité élevée que le prochain changement d'état global sera extrêmement perturbateur pour nos civilisations. Souvenez-vous, nous sommes passés de l'état de chasseurs-cueilleurs à celui capable de marcher sur la Lune dans une des périodes les plus stables et anodines de toute l'histoire de la Terre. Lorsque le seuil sera atteint, ce sera un point de non-retour. La planète ne possède pas la mémoire de son état précédent...
Ces projections contredisent la croyance selon laquelle la pression de l'Homme sur le changement climatique qui détruit notre planète est encore contestable, et qu'un effondrement serait alors graduel et étalé sur plusieurs siècles. L'étude conclut que nous serions avisés de ne pas transformer la surface de la Terre de plus de 50%, ou nous ne serions plus capables d'inverser ce processus. Nous avons aujourd'hui atteint 43% de ces changements, en convertissant les paysages en zones agricoles et urbaines. Moers précise : - En un mot, les hommes n'ont rien fait réellement d'important pour éviter le pire car les structures sociales existantes ne sont pas les bonnes. Mes collègues qui étudient les changements climatiques induits à travers l'histoire de la Terre sont plus qu'inquiets. En fait, ils sont terrifiés.

Auteur: Nature

Info: juillet 2012

[ pessimisme ] [ catastrophe naturelle ]

 

Commentaires: 0

raisonnements

Tous les biais cognitifs simples dans une seule infographie.
Le cerveau humain est capable de choses incroyables, mais il est aussi souvent extrêmement imparfait.
La science a montré que nous avons tendance à faire toutes sortes d'erreurs mentales, appelées "contraintes cognitives", qui peuvent affecter notre pensée et nos actions. Ces biais, comme le souligne Jeff Desjardinsde Visual Capitalist, peuvent nous amener à extrapoler des informations provenant de mauvaises sources, à chercher à confirmer les croyances existantes ou à ne pas nous souvenir d'événements comme ils se sont réellement passés!
Tout ceci fait bien sûr partie de l'être humain, mais ces biais cognitifs peuvent également avoir un effet profond sur nos efforts, nos investissements et notre vie en général. Pour cette raison, cette infographie de DesignHacks.co est particulièrement pratique. Elle montre et regroupe les 188 biais de confirmation connus existants.
QU'EST-CE QU'UN BIAS COGNITIF?
Les humains ont tendance à penser de certaines manières qui peuvent conduire à des écarts systématiques d'une prise de jugement rationnel.
Ces tendances proviennent habituellement de :
- Raccourcis de traitement de l'information
- Capacité de traitement limitée du cerveau
- Motivations émotionnelles et morales
- Distorsions dans le stockage et la récupération des souvenirs
- Influence sociale
Les biais cognitifs ont été étudiés durant des décennies par des universitaires dans les domaines de la science cognitive, de la psychologie sociale et de l'économie comportementale, mais ils sont particulièrement pertinents dans le monde de l'information. Ils influencent la façon dont nous pensons et agissons, et de tels raccourcis mentaux irrationnels peuvent conduire vers toutes sortes de problèmes dans l'entrepreneuriat, l'investissement ou la gestion.
EXEMPLES DE BIAS COGNITIFS
Voici quatre exemples de la façon dont ces types de biais peuvent affecter les gens dans le monde des affaires:
- Biais de familiarité: un investisseur met son argent dans "ce qu'il connait", plutôt que de rechercher les avantages évidents d'une diversification de portefeuille. Juste parce qu'un certain type d'industrie ou de sécurité est familier n'en fait pas une sélection logique.
- Le biais de l'auto-attribution: un entrepreneur attribue excessivement le succès de sa société à lui-même, plutôt qu'à d'autres facteurs (équipe, chance, tendances de l'industrie). Quand les choses ne vont pas, il blâme ces facteurs externes pour avoir stoppé sa progression.
- Ancrage de partialité : un employé lors d'une négociation de salaire dépend trop du premier chiffre mentionné dans les négociations plutôt qu'examiner de façon rationnelle une gamme d'options.
- Le biais de survie: l'esprit d'entreprise semble facile, car il y a tant d'entrepreneurs prospères. C'est pourtant bien un biais cognitif: les entrepreneurs prospères sont les meilleurs, ceux qui ont survécu, alors que les millions qui ont échoué sont parti pour faire d'autres choses.

Auteur: Internet

Info: Zero Hedge, 29 sept 2017

[ réflexion ] [ réfléchir ]

 

Commentaires: 0

philosophie antique

Il n’y a pas, chez Platon, d’analyse du processus cognitif : ce qui importe, pour lui, c’est de savoir si ce que l’on connaît est vraiment réel. Aristote, au contraire, analyse, magistralement, l’acte de connaissance. Il y voit un processus d’abstraction : la forme intelligible est abstraite, dégagée de la chose connue, par l’intelligence, et vient s’imprimer dans notre esprit qu’elle informe. C’est par la médiation de cette forme, abstraite de la chose, c’est-à-dire par le concept, que nous connaissons la chose, alors que chez Platon la connaissance véritable est au fond une participation intuitive de l’intelligence à l’essence de l’objet connu. 

[conséquences de l'intégration de la noétique aristotélicienne au Moyen Age]

D’une part, s’accentuant et se durcissant au cours du temps, en dépit de l’admirable équilibre de la synthèse thomasienne, la noétique aristotélicienne conduit, contre le vœu de ses partisans, à la réaction nominaliste – dont la préservait son platonisme implicite (celui de la forme intelligible et de l’intellect agent) : puisque nos concepts ne peuvent pas être des modes de participation aux essences (réellement existantes) des choses, cessons d’attribuer une réalité quelconque à leur contenu, et réduisons leur existence de concepts à celle des noms qui les désignent ; car seuls sont réellement existants les êtres individuels concrets (et donc, éventuellement, le Christ Jésus dans sa présence historique effective, ou dans sa présence extroardinaire et surnaturelle). D’autre part, cette noétique systématisée implique une sorte de laïcisation ou de profanisation de l’intelligence. En dégageant pour lui-même le processus que met en œuvre tout acte de connaissance et en le mettant au centre de la réflexion philosophique, on est amené à négliger la considération des degrés de connaissance et l’importance des distinctions qui les spécifient : du strict point de vue du fonctionnement de l’appareil cognitif, il n’y a en effet aucune différence apparente entre concevoir un triangle, un chat ou Dieu, sinon dans le mode d’abstraction. Il en résulte qu’a priori un parfait athée pourrait être parfait théologien, et que la théologie n’a rien de sacré, du moins quant aux opérations intellectuelles qu’elle requiert : comme l’affirme Luther, c’est un exercice entièrement profane. Enfin, et inversement, il devient difficile de qualifier d’intellectuel ce qui est proprement mystique et surnaturel, dans la mesure où l’activité intellectuelle se caractérise par l’emploi, dans la connaissance d’un objet, d’une médiation conceptuelle, alors que les plus hauts états mystiques – mais les théologiens ne sont pas tous d’accord – semblent exclure tout intermédiaire, et même les concepts. [...] Résumant les trois conséquences que nous venons de repérer, nous dirons que tout se passe comme si on était convié à procéder à une triple dichotomie : du connaître et de l’être, de la science et de la foi, de l’intelligence et de la prière.

Auteur: Borella Jean

Info: "Esotérisme guénonien et mystère chrétien", éditions l’Age d’Homme, Lausanne, 1997, pages 343-344

[ aristotélisme ] [ christianisme ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

philosophie politico-scientifique

Prix Nobel de physiologie et de médecine en 1965, professeur au Collège de France et directeur de l'Institut Pasteur, Jacques Monod, qui s'est situé à l'avant-garde de la biologie par les travaux qu'il a menés avec André Lwoff et François Jacob sur le code génétique, déborde avec ce livre le domaine scientifique et tente de dégager de la biologie moderne des implications à la fois épistémologiques, éthiques et politiques.

Jacques Monod  part d'une distinction, à ses yeux fondamentale, entre les êtres vivants et les autres structures existantes. Les vivants sont des objets doués d'un projet, propriété qu'il appelle téléonomie. En outre, contrairement aux objets fabriqués, les êtres vivants sont des machines qui se construisent elles-mêmes et qui se reproduisent elles-mêmes de façon invariante. Le projet téléonomique fondamental d'une espèce est d'assurer à la génération suivante la transmission d'un contenu spécifique d'invariance reproductive. La distinction entre téléonomie et invariance se trouve justifiée par des considérations chimiques.

Mais le principe d'objectivité de la nature, pierre angulaire de la science, qui refuse toute explication finaliste, paraît en contradiction avec la téléonomie. Selon Jacques Monod, cette contradiction se résout si l'on fait de l'invariance la propriété primitive et de la téléonomie une propriété seconde. Cette thèse est conforme à la théorie de l'évolution sélective, qui rend compte du raffinement progressif des structures téléonomiques par des perturbations survenues dans une structure possédant déjà la propriété d'invariance. Ainsi, l'évolution apparemment orientée des espèces s'explique par un mécanisme de sélection d'une série de hasards (les mutations), mécanisme qui obéit à des lois biologiques et physico-chimiques nécessaires.

Au contraire, estime Jacques Monod, les idéologies religieuses et la plupart des systèmes philosophiques nient le hasard et font appel à un principe téléonomique universel, responsable d'une évolution cosmique qui a pour but l'épanouissement humain. Cette interprétation est également présente, selon Jacques Monod, dans le progressisme scientiste du XIXe siècle et dans le matérialisme dialectique de Marx et d'Engels.

Résolument indéterministe en ce qui concerne aussi bien l'avènement de l'homme que celui de la cellule primitive, Jacques Monod estime que l'un comme l'autre disposaient, dans la loterie de l'univers, d'une chance voisine de zéro. Cette idée, à laquelle conduit la connaissance objective, est très difficilement acceptable, parce que les hommes ont toujours eu besoin, pour dissiper leur angoisse, de croire qu'ils occupent dans les plans de la nature une place nécessaire.

Jacques Monod, dans les dernières pages, les plus célèbres de son livre, appelle l'homme contemporain à abandonner les valeurs millénaires pour adopter une éthique de la connaissance. Cette éthique définit une valeur transcendante, la connaissance vraie, et propose à l'homme de la servir. Monod y voit la seule attitude rationnelle sur laquelle s'édifierait un véritable socialisme. Emergé par hasard dans l'immensité de l'univers, l'homme peut choisir de se libérer des servitudes mensongères de l'animisme.

Auteur: Favrod Charles-Henri

Info: https://www.letemps.ch/, 27 octobre 2000 - Les grands livres du XXe siècle. "Le hasard et la nécessité" de Jacques Monod

[ univers laïc ] [ post-darwinisme ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

végétal

Quand le désordre nous dit comment le vivant se construit
Une majorité de plantes distribuent leurs feuilles et fleurs en spirale le long des tiges mais ces spirales sont souvent imparfaites. Un nouveau modèle stochastique de la genèse de ces spirales chez les plantes a été élaboré par les équipes de Teva Vernoux au Laboratoire de reproduction et développement des plantes et Christophe Godin de l'équipe-projet Inria Virtual Plants. Il montre que les désordres dans les spirales sont comme des filigranes qui donnent des informations sur les principes de construction des plantes. Cette étude est publiée dans la revue eLife.
Les organismes vivants produisent des structures ordonnées qui ont depuis toujours attiré la curiosité des chercheurs comme celle du grand public pour leur beauté et leur variété. Mais ces structures complexes ne sont pas parfaites et présentent des défauts à des degrés plus ou moins importants. C'est le cas sur la tige des plantes. Ces dernières produisent tout au long de leur vie de nouveaux organes (branches, feuilles, fleurs,...) le long des tiges, le plus souvent suivant une organisation en spirale. Les nouveaux organes sont produits dans un tissu spécialisé à l'extrémité de la tige et se positionnent successivement les uns par rapport aux autres en inhibant localement la production de nouveaux organes dans leur voisinage. C'est comme si dans une foule tous les individus produisaient un champ de force répulsif qui les empêchait de s'approcher trop les uns les autres. Dans ce système, il faut que la croissance de la tige éloigne suffisamment les derniers organes produits pour qu'un nouvel organe puisse à nouveau être créé. La croissance induit ainsi des initiations rythmiques d'organes. De façon étonnante, il a été observé récemment qu'il n'est pas rare que ce mécanisme régulier soit perturbé et que plusieurs organes soient initiés en même temps ou même inversés par rapport à l'ordre qu'ils devraient avoir sur une spirale idéale. Comment est-il possible de continuer à construire des spirales quand l'ordre des organes est à ce point perturbé ?
Une équipe composée de biologistes et mathématiciens menée par Teva Vernoux du laboratoire Reproduction et Développement des Plantes à l'ENS Lyon et Christophe Godin de l'équipe-projet Virtual Plants de l'INRIA à Montpellier, a crée un nouveau modèle de la genèse des spirales sur les tiges des plantes en introduisant une part d'aléatoire dans la manière dont les cellules perçoivent l'inhibition produite par les branches/feuilles/fleurs existantes. Ce modèle dans lequel la production des nouveaux organes est en partie déterminée par les lois du hasard permet de recréer avec précision à la fois la régularité des spirales mais également les perturbations de la temporalité des initiations perturbant la spirale. Le modèle suggère qu'une part d'aléatoire gouverne la construction des plantes mais surtout que la quantification des désordres des spirales sur la tige informe sur les paramètres du modèle et donc sur les mécanismes qui contrôlent le mise en place des spirales. Ces désordres sont ainsi comme les filigranes sur les billets de banque: quand on sait comment les mettre en évidence (en les plaçant devant une source lumineuse dans ce cas), il devient possible de lire une information cachée qu'ils portent. Comprendre le désordre nous permet donc de mieux comprendre comment se construisent les systèmes vivants.

Auteur: Internet

Info: A stochastic multicellular model identifies biological watermarks from disorders in self-organized patterns of phyllotaxis. Refahi Y, Brunoud G, Farcot E, Jean-Marie A, Pulkkinen M, Vernoux T, Godin C.Elife. 2016 Jul 6

[ méta-moteur ] [ imperfection ]

 

Commentaires: 0

sciences

Mu: une constante fondamentale qui reste constante.
L'idée que les constantes fondamentales ne le soient pas réellement et dépendent de l'espace et du temps perturbe depuis longtemps l'esprit des physiciens. Mais, en observant la façon dont une galaxie lointaine absorbe la lumière d'un quasar, des chercheurs australiens viennent de déterminer une nouvelle limite sur l'évolution de l'une d'entre elles, Mu (µ), ratio entre les masses de l'électron et du proton, en fonction du temps. Leur résultat, qui est 10 fois plus précis que les mesures précédentes, confirme la compréhension scientifique actuelle de la physique.
Les scientifiques ont utilisé la lumière d'un quasar pour montrer qu'une des constantes fondamentales de la physique est très probablement restée constante à travers l'histoire de l'univers
Les constantes principales sont très finement ajustées à notre existence (ou vice-versa !) ; si l'interaction forte était ne serait-ce qu'un pour cent plus intense qu'elle ne l'est aujourd'hui, par exemple, le carbone ne pourrait pas être produit dans les étoiles, et nous ne serions pas là pour en parler. C'est une des raisons pour lesquelles de nombreux physiciens sont désireux de vérifier si certaines constantes fondamentales ont varié au cours de l'histoire de l'univers. L'une d'elles est µ, le ratio entre la masse de l'électron et celle du proton.
Habituellement, cette constante peut être calculée en analysant les données d'un télescope terrestre pointé sur un quasar, le noyau compact mais très lumineux d'une jeune galaxie, sorte de "phare" dans l'espace profond. Le spectre de la lumière des quasars couvre un large intervalle de longueurs d'onde, mais certaines d'entre elles peuvent être absorbées par des molécules situées au sein de galaxies plus anciennes lors du trajet de la lumière à travers le cosmos. Ces longueurs d'onde, apparaissant comme des raies d'absorption, correspondent à des molécules "excitées" à des niveaux plus élevés d'énergie et sont régies par µ. Comme la lumière des quasars peut mettre des milliards d'années pour parvenir sur Terre, la valeur de µ mesurée à partir de ces sources éloignées peut être comparée à sa valeur mesurée dans une expérience de laboratoire. On détermine ainsi si sa valeur s'est modifiée au cours du temps.
Victor Flambaum et Michael Kozlov, de l'université de Nouvelle Galle du Sud en Australie, ont rendu la technique plus précise en y incorporant l'analyse d'un "spectre d'inversion", produit quand les atomes des molécules absorbent la lumière et atteignent un niveau d'énergie plus élevé par effet tunnel. Comme la probabilité de l'effet tunnel dépend plus étroitement de µ que les raies d'absorption dans le spectre habituel, des variations de cette constante peuvent en être déduites plus précisément.
Flambaum et Kozlov ont utilisées des données existantes du radiotélescope d'Effelsberg en Allemagne concernant la lumière issue d'un quasar et traversant la galaxie B0218+357 à 6.5 milliards d'années-lumière de la terre, et ont analysé les deux types de spectres pour des molécules d'ammoniaque et d'autres comme celles d'oxyde de carbone. Ils ont ensuite comparé les spectres à ceux d'expériences actuelles de laboratoire et ont constaté que µ ne pouvait pas avoir diminué de plus de 4e-16, ni ne pouvait pas avoir augmenté de plus de 2e-16 par an ce qui représente une évaluation dix fois plus précise que les meilleures estimations antérieures.
L'année dernière un groupe, conduit par Wim Ubachs de l'université d'Amsterdam, avait trouvé, en utilisant la technique plus ancienne, que µ avait pu diminuer avec le temps. Si cela s'était confirmé, cela aurait signifié que les théories les plus fondamentales de la physique, comme celle de la relativité, auraient dû être reconsidérées. Flambaum a indiqué, cependant, que ses propres résultats, plus précis, prouvaient qu'il était peu probable que µ ait varié au cours du temps, et qu'ainsi notre compréhension actuelle de la physique était bonne. Le scientifique a ajouté que si plus de données pouvaient être rassemblées, sa technique d'analyse devrait permettre aux théoriciens de déterminer encore plus précisément les non-variations de µ.

Auteur: Internet

Info:

[ constantes ]

 

Commentaires: 0

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives. 

Auteur: Internet

Info: https://intelligence-artificielle.developpez.com/ - Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe  ] [ intégration holistique ] [ homme-machine ] [ carbone vs silicium ] [ entendement synthétique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives.

Auteur: Internet

Info: Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe ] [ intégration holistique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

querelle du filioque

La source la plus claire de la notion de pardon que le christianisme développera pendant des siècles remonte, dans les Évangiles, à saint Paul et à saint Luc. Comme tous les principes de base de la chrétienté, elle sera développée chez saint Augustin, mais c’est chez saint Jean Damascène (au VIIIe siècle) qu’on trouvera une hypostase de la "bienveillance du père" (eudoxia), de la "tendre miséricorde" (eusplankhna) et de la "condescendance" (le Fils s’abaisse jusqu’à nous)(synkatabasis). A rebours, ces notions peuvent être interprétées comme préparant la singularité du christianisme orthodoxe jusqu’au schisme de Per Filium/Filioque.

Un théologien semble avoir profondément déterminé la foi orthodoxe qui s’exprime puissamment chez Dostoïevski et donne à l’expérience intérieure propre à ses romans cette intensité émotionnelle, ce pathos mystique si surprenants pour l’Occident. Il s’agit de saint Syméon le Nouveau Théologien (999-1022). [...] Saint Syméon comprend la Trinité comme une fusion des différences que sont les trois personnes, et l’énonce intensément à travers la métaphore de la lumière.

Lumière et hypostases, unité et apparition : telle est la logique de la Trinité byzantine. Elle trouve immédiatement, chez Syméon, son équivalent anthropologique : "Comme il est impossible qu’il existe un homme avec parole ou esprit sans âme, ainsi il est impossible de penser le Fils avec le Père sans le Saint-Esprit [...]. Car ton propre esprit, de même que ton âme, est dans ton intelligence, et toute ton intelligence est dans tout ton verbe, et tout ton verbe est dans tout ton esprit, sans séparation et sans confusion. C’est l’image de Dieu en nous." Dans cette voie, le croyant se défie en fusionnant avec le Fils et avec l’Esprit : "Je te rends grâce que sans confusion, sans changement, tu te sois fait un seul Esprit avec moi, bien que tu sois Dieu par-dessus tout, tu sois devenu pour moi tout en tout."

Nous touchons ici l’ "originalité de l’orthodoxie". Elle aboutira, à travers maintes controverses institutionnelles et politiques, au schisme accompli au XIe siècle et achevé avec la prise de Constantinople par les Latins en 1204. Sur le plan proprement théologique, c’est Syméon plus que Photius qui formule la doctrine orientale Per Filium opposée au Filioque des Latins. Insistant sur l’Esprit, il affirme l’identité de la vie dans l’Esprit et de la vie dans le Christ, cette pneutamologie puissante trouvant dans le Père son origine. Toutefois, une telle instance paternelle n’est pas simplement un principe d’autorité ou une cause mécanique simple : dans le Père, l’Esprit perd son immanence et s’identifie au royaume de Dieu défini à travers des métamorphoses germinales, florales, nutritives et érotiques qui connotent, par-delà l’énergétisme cosmique souvent considéré spécifique à l’Orient, la fusion ouvertement sexuelle avec la Chose aux limites du nommable.

Dans cette dynamique, l’Église elle-même apparaît comme un soma pneumatikon, un "mystère", plus qu’une institution à l’image des monarchies.

Cette identification extatique des trois hypostases entre elles et du croyant avec la Trinité ne conduit pas à la conception d’une autonomie du Fils (ou du croyant), mais à une appartenance pneumatologique de chacun aux autres, que traduit l’expression Per Filium (l’Esprit descend du Père par le Fils) opposée au Filioque (l’Esprit descend du Père et du Fils).

Il a été impossible, à l’époque, de trouver la rationalisation de ce mouvement mystique interne à la Trinité et à la foi, où, sans perdre sa valeur de personne, l’Esprit fusionne avec les deux autres pôles et, du même coup, leur confère, au-delà de leur valeur d’identité ou d’autorité distinctes, une profondeur abyssale, vertigineuse, certainement aussi sexuelle, dans laquelle se logera l’expérience psychologique de la perte et de l’extase. Le nœud borroméen que Lacan a utilisé comme métaphore de l’unité et de la différence entre le Réel, l’Imaginaire et le Symbolique permet peut-être de penser cette logique, si tant est qu’il soit nécessaire de la rationaliser. Or, précisément, tel ne semblait pas être le propos des théologiens byzantins du XI au XIIIe siècles, préoccupés de décrire une nouvelle subjectivité post-antique plutôt que de la soumettre à la raison existante. En revanche, les Pères de l’Église latine, plus logiciens, et qui venaient de découvrir Aristote (alors que l’Orient en était nourri et ne cherchait plus qu’à s’en différencier), ont logifié la Trinité en voyant en Dieu une essence intellectuelle simple articulable en dyades : le Père engendre le Fils ; le Père et le Fils en tant qu’ensemble font procéder l’Esprit. Développée par la syllogistique d’Anselme de Cantorbury au concile de Bari en 1098, cette argumentation du Filioque sera reprise et développée par Thomas d’Aquin. Elle aura l’avantage d’asseoir d’une part l’autorité politique et spirituelle de la papauté, d’autre part l’autonomie et la rationalité de la personne du croyant identifié à un Fils ayant pouvoir et prestige à égalité avec le Père. Ce qui est ainsi gagné en égalité et donc en performance et en historicité, est peut-être perdu au niveau de l’expérience de l’identification, au sens d’une instabilité permanente de l’identité.

Auteur: Kristeva Julia

Info: Dans "Soleil noir", éditions Gallimard, 1987, pages 218 à 222

[ influence ] [ psychanalyse ]

 
Commentaires: 3
Ajouté à la BD par Coli Masson