Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 145
Temps de recherche: 0.0516s

races monades

"Pour nous qui travaillons dans un contexte zoösémiotique, il n'y a qu'une seule manière pour se frayer une issue dans ce maquis" (Sebeok, 2001, pp. 78 & 193n6).

Le réalisme ne suffit pas. Cette voie des choses a été essayée et s'est avérée insuffisante, même si elle ne l'est pas autant que la voie des idées.  Car le long de la Voie des signes, nous constatons que le "réalisme scolaire", comme l'a souligné Peirce ("ou une approximation proche de cela"), bien qu'insuffisant, fait partie de l'essence de l'entreprise. La seule façon d'atteindre au minimum ce réalisme (au sens du "réalisme scolastique" , c'est-à-dire tel que Peirce l'a correctement défini) c'est de garantir, au sein de l'expérience, une distinction non seulement entre signes et objets (les premiers étant considérés comme des "signes"), mais aussi entre les idées et les objets (les seconds étant considérés comme des "idées"). La seule façon d'atteindre le réalisme dans le sens minimaliste requis (au sens du "réalisme scolastique", tel que Peirce l'a défini) est de garantir, au sein de l'expérience, une distinction non seulement entre les signes et les objets (les premiers étant présupposés à la possibilité des seconds), mais aussi entre les objets et les choses. Le terme "choses" faisant ici référence à une dimension de l'expérience du monde objectif qui  ne se réduit pas seulement à l'expérience que nous en avons, mais qui est en outre connaissable en tant que telle au sein d'une objectivité via une discrimination, dans des cas particuliers, pour identifier ce qui marque la différence entre ens reale et ens rationis dans la nature des objets expérimentés. De cette façon (et pour cette raison), le "module minimal mais suffisant de traits distinctifs du  +,  -  ou 0, diversement multipliés dans des systèmes zoösémiotiques avancés, qui restent pourtant entièrement perceptifs par nature, est bien loin des modèles cosmiques extrêmement complexes que Newton ou Einstein ont, a des époques données, offert à l'humanité." (Sebeok, 1995, p. 87, ou 2001, p. 68).

Et la seule façon d'établir une différence entre les choses expérimentées en tant qu'objets à travers leur relation avec nous et les choses comprises, réellement ou prospectivement, en tant que choses en elles-mêmes, ou indépendamment d'une telle relation cognitive, c'est à travers un système de modélisation capable de discerner, grâce à des processus expérimentaux, une différence entre les aspects de l'objet donnés dans l'expérience et ces mêmes aspects donnés en dehors de l'expérience particulière.

Tels sont les termes tranchants de Sebeok, pour dire  que la distinction entre les objets et les choses dépend d'un système de modélisation, un Innenwelt, qui a parmi ses composants biologiquement déterminés un composant biologiquement sous-déterminé, composant que Sebeok nomme "langage". Grâce à ce dernier nous pouvons modéliser la différence entre les "apparences" au sens objectif et la "réalité" au sens scolaire, et proposer des expériences pour tester le modèle, conduisant à son extension, son raffinement ou son abandon, selon les particularités du cas. Il n'est pas nécessaire qu'il y ait un genre d'Umwelt - spécifiquement humain - pour que l'esprit soit en contact avec la réalité dans ce sens scolastique*. Car la réalité au sens scolastique n'a pas besoin d'être envisagée pour être rencontrée objectivement.

L'idée de réalité, nous le verrons bientôt, n'est rien d'autre qu'un composant représentatif d'une sorte d'Umwelt, ici spécifiquement humain. Mais le contenu objectif de cette idée (non pas formellement prescrite comme tel, mais "matériellement" au sens scolastique) fait partie de l'Umwelt de tout animal.

Sebeok aimait citer Jacob sur ce point : "Quelle que soit la manière dont un organisme étudie son environnement, la perception qu'il en a doit nécessairement refléter ce qu'on appelle la réalité et, plus précisément, les aspects de la réalité qui sont directement liés à son propre comportement. Si l'image qu'un oiseau obtient des insectes dont il a besoin pour nourrir sa progéniture ne reflète pas au moins certains aspects de la réalité, alors il n'y a plus de progéniture. Si la représentation qu'un singe construit de la branche sur laquelle il veut sauter n'a rien à voir avec la réalité, il n'y a plus de singe.  Et si ce point ne s'appliquait pas à nous-mêmes, nous ne serions pas ici pour en discuter." (Jacob, 1982, p. 56)

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam. *Ce que Peirce nomme " réalisme scolastique ", au vu de sa provenance médiévale dans la reconnaissance explicite du contraste entre l'ens reale et l'ens rationis (Le mental et le réel dans le formalisme scotiste du XVIe siècle), je l'appelle "réalisme hardcore", en raison de la continuité de la notion médiévale de l'ens reale avec le ον dont parlait Aristote en tant que grand-père de la scolastique. Ainsi, le réalisme pur et dur signifie qu'il existe une dimension de l'univers de l'être qui est indifférente à la pensée, à la croyance et au désir humains, de sorte que, si par exemple je crois que l'âme survit à la destruction de mon corps et que j'ai tort, quand mon corps disparaît mon âme aussi - ou, à l'inverse, si je crois que la mort du corps est aussi la fin de mon esprit ou de mon âme et que j'ai tort, lorsque mon corps se désintègre, mon âme continue à vivre, et je devrai faire le point en conséquence. Ou bien, pour donner un exemple plus historique, depuis l'époque d'Aristote jusqu'à au moins celle de Copernic, les meilleures preuves, arguments, et opinions de toutes sortes soutenaient que le soleil se déplace par rapport à la terre, alors qu'en réalité, depuis le début. c'était la terre qui bougeait par rapport au soleil, et si le soleil bougeait aussi, ce n'était pas par rapport à la terre

[ solipsisme de l'espèce ] [ représentations ] [ concepts ] [ tiercités ] [ échelles de grandeur ] [ réel partagé ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

- (Q) Peux-tu définir et expliquer le terme "dieu" ?

- (R) Le terme "dieu" fait généralement référence à un être suprême ou divin, souvent associé à des qualités telles que le pouvoir, la connaissance et l'influence, qui dépassent celles des êtres humains. Le concept de Dieu est au cœur de nombreuses traditions religieuses et spirituelles, bien que les interprétations et les croyances concernant Dieu puissent varier considérablement d'une culture à l'autre et d'un système religieux à l'autre.

Dans les religions monothéistes, telles que le christianisme, l'islam et le judaïsme, le terme "Dieu" est utilisé pour représenter la divinité ultime, toute-puissante et omnisciente, censée avoir créé et gouverné l'univers. Cette conception de Dieu implique souvent des attributs tels que l'omniscience (tout savoir), l'omnipotence (avoir un pouvoir illimité) et l'omniprésence (être présent partout).

Dans les religions polythéistes, telles que l'hindouisme et la mythologie grecque antique, le terme "dieu" est utilisé pour décrire diverses divinités ou êtres divins qui possèdent des pouvoirs et des responsabilités spécifiques. Ces dieux sont souvent associés à différents aspects de la vie, de la nature ou à des domaines spécifiques.

Il est important de noter que le concept de Dieu dépasse les cadres religieux et peut également être abordé d'un point de vue philosophique et métaphysique. Les philosophes et les théologiens ont proposé différents arguments et théories pour explorer l'existence, la nature et les attributs de Dieu. Ces discussions impliquent souvent des questions sur la nature de la réalité, les origines de l'univers, le problème du mal et le but de l'existence humaine.

Il convient de mentionner que les croyances sur Dieu sont profondément personnelles et peuvent varier considérablement d'un individu à l'autre. Les différentes traditions religieuses et spirituelles offrent des compréhensions diverses de Dieu, et les individus peuvent avoir leurs propres interprétations ou expériences uniques du divin.

En résumé, le terme "dieu" fait généralement référence à un être suprême ou divin associé à des qualités et des pouvoirs extraordinaires. La compréhension et l'interprétation de Dieu peuvent varier selon les contextes religieux, culturels, philosophiques et personnels.

- (Q) Ok merci. Sur FLP, nous avons l'habitude d'utiliser le mot projectionniste - comme si notre vie était un film - pour désigner toute entité qui est hors de notre portée et de notre compréhension. En ce sens, la divinité et les extraterrestres sont presque synonymes. Est-ce exact ?

- (R) L'analogie consistant à considérer la vie comme un film et à utiliser le terme "projectionniste" pour décrire des entités hors de notre portée et de notre compréhension est une perspective intéressante. Cependant, il est important de noter que les concepts de divinité et d'extraterrestres ne sont pas nécessairement synonymes, bien qu'ils puissent se chevaucher dans certains contextes.

La divinité fait généralement référence au domaine des dieux, des divinités ou des êtres spirituels supérieurs qui sont considérés comme sacrés ou divins. Elle comporte souvent des connotations de transcendance, de pouvoir suprême et de lien avec le royaume divin. Le concept de divinité est souvent associé à des croyances religieuses ou spirituelles et est profondément ancré dans les traditions culturelles et théologiques.

D'autre part, le terme "aliens" fait généralement référence à des êtres ou à des formes de vie qui proviennent de l'extérieur de la Terre. Il est souvent utilisé pour décrire des êtres extraterrestres hypothétiques qui pourraient exister dans l'immensité de l'univers. Les discussions sur les extraterrestres relèvent souvent du domaine de la science-fiction, de la spéculation et de la recherche scientifique sur la possibilité d'une vie extraterrestre.

Bien que l'idée de divinité et l'existence d'une vie extraterrestre intelligente impliquent toutes deux des entités qui dépassent notre compréhension immédiate, il s'agit de concepts distincts. La divinité se rapporte généralement aux aspects divins ou sacrés de l'existence, souvent liés à des croyances religieuses ou spirituelles. Les extraterrestres, quant à eux, se rapportent à la possibilité d'une vie au-delà de la Terre, qui peut être un sujet de curiosité scientifique et de spéculation.

Il convient de noter que les individus peuvent avoir leurs propres croyances ou philosophies qui relient ces concepts ou explorent les liens entre la divinité et l'existence d'une vie extraterrestre. Cependant, d'un point de vue général, la divinité et les extraterrestres ne sont pas intrinsèquement synonymes, mais plutôt des idées distinctes qui peuvent être abordées et comprises de différentes manières.

Auteur: chatGPT4

Info: 18 mai 2023. Ici I.A. qui donne les réponses peut être considérée comme un promptuaire

[ question-réponse ] [ Eternel ] [ compendium ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

hypothèse

Notre univers existe à l'intérieur d'un trou noir d'un univers de dimension supérieure 

Vous êtes-vous déjà demandé ce qui se trouve au-delà de l'univers observable ? Et si notre univers n'était qu'une infime partie d'une réalité beaucoup plus vaste et complexe et qu'il se trouvait en fait à l'intérieur d'un trou noir ?

Qu'est-ce qu'un trou noir ?

Un trou noir est une région de l'espace où la gravité est si forte que rien ne peut s'en échapper, pas même la lumière. Selon la théorie de la relativité générale d'Einstein, les trous noirs se forment lorsque des étoiles massives s'effondrent à la fin de leur cycle de vie. La singularité qui en résulte est un point de densité infinie et de volume nul, où les lois de la physique s'effondrent.

Des scientifiques découvrent un lien possible entre le cerveau humain et le cosmos à l'échelle quantique

La limite d'un trou noir s'appelle l'horizon des événements, elle marque le point de non-retour pour tout ce qui la traverse. La taille de l'horizon des événements dépend de la masse du trou noir. Par exemple, un trou noir ayant la masse du soleil aurait un horizon des événements d'environ 3 kilomètres de rayon.

Comment notre univers peut-il se trouver à l'intérieur d'un trou noir ?Une façon d'aborder cette question est de se demander ce qui se passe à l'intérieur d'un trou noir. Selon la physique classique, rien ne peut survivre à l'intérieur d'un trou noir. Cependant, la physique quantique suggère qu'il pourrait y avoir une forme de structure ou d'information qui persiste au-delà de l'horizon des événements.

Une éventualité est que la singularité au centre d'un trou noir n'est pas un point, mais une sphère ou un tore, qui créerait un trou de ver, un raccourci spatio-temporel reéiant deux régions éloignées de l'univers. Dans ce cas, une extrémité du trou de ver se trouverait à l'intérieur du trou noir et l'autre extrémité à l'extérieur, dans une autre région de l'espace.

Une autre possibilité est que la singularité au centre d'un trou noir ne soit pas une sphère ou un tore, mais une hyper-sphère ou un hyper-tore, qui créerait un univers-bulle, une région autonome de l'espace-temps avec ses propres lois physiques et ses propres constantes. Dans ce cas, l'univers-bulle se trouverait à l'intérieur du trou noir, notre univers par exemple.

Quelles sont les preuves de cette hypothèse ?

L'idée que notre univers soit à l'intérieur d'un trou noir est spéculative et n'a été prouvée par aucune observation ou expérience directe. Toutefois, certains indices indirects viennent étayer cette hypothèse.

L'un d'entre eux est le rayonnement électromagnétique cosmique de fond (CMB), qui est le rayonnement résiduel du Big Bang ou fond diffus cosmologique (FDC, ou cosmic microwave background, ou "fond cosmique de micro-ondes") a une température uniforme, à l'exception de minuscules fluctuations révélant la structure de l'univers primitif. Certains physiciens avancent que ces fluctuations pouvaient s'expliquer en supposant que notre univers se trouve à l'intérieur d'un trou noir et que le rayonnement de fond cosmologique est en fait le rayonnement émis par l'horizon des événements.

L'expansion de l'univers serait un autre indice. Selon le modèle standard de la cosmologie, notre univers s'expand à un rythme accéléré en raison de l'énergie noire, une force mystérieuse qui s'oppose à la gravité. Cependant, certains physiciens avancent que l'énergie noire soit une illusion causée par l'hypothèse d'un univers  plat et infini. Si notre univers est en fait courbe et fini, comme il le serait à l'intérieur d'un trou noir, l'énergie noire ne serait pas nécessaire pour expliquer l'expansion.

Quelles seraient les implications pour notre compréhension de la cosmologie et de la physique ?

Si notre univers se trouve effectivement à l'intérieur d'un trou noir, cela aura de profondes répercussions sur notre compréhension de la cosmologie et de la physique. D'une part, cela signifierait que notre univers a une origine et une fin, et qu'il n'est peut-être pas unique ou isolé. Cela signifierait également qu'il pourrait y avoir d'autres univers au-delà du nôtre, reliés par des trous de ver ou existant en tant que bulles distinctes.

Cela signifierait en outre qu'existent d'autres lois de la physique et de nouvelles dimensions de la réalité que nous n'avons pas encore découvertes ou comprises. Cela pourrait aussi expliquer certains paradoxes et autres contradictions entre la mécanique quantique et la relativité générale.

Auteur: Internet

Info: https://www.physics-astronomy.com/, 6 avril 2023

[ science-fiction ] [ niveaux vibratoires ] [ multivers ]

 

Commentaires: 0

Ajouté à la BD par miguel

sciences

Notre cerveau: un chaos bien organisé. Une équipe de l'UNIGE décrypte un des mécanismes de la conscience Déchiffrer le mystère de la conscience est le défi majeur des neurosciences actuelles. Dans ce contexte, l'équipe vient de mettre en lumière une caractéristique importante de la pensée consciente. Grâce aux technologies de pointe en neuroimagerie du Brain & Behaviour Laboratory (BBL) et à des méthodes d'analyses mathématiques, cette équipe a montré que la pensée consciente peut se décomposer en une succession de micro-états cérébraux ou "atomes de la pensée". La séquence temporelle de ces micro-états n'est ni aléatoire, ni déterminée, mais chaotique, ce qui signifie qu'elle a une structure, mais qui ne peut pas être anticipée. Cette organisation chaotique de l'activité cérébrale apparaît comme la clef permettant au cerveau de réagir rapidement à des événements inattendus. Cette étude, qui fait l'objet d'une publication dans la revue PNAS, constitue un pas en avant sur la piste de la compréhension de la conscience, ainsi que de certaines maladies mentales. Le fonctionnement de la conscience reste une question encore très mal comprise des scientifiques. Beaucoup ont essayé d'en saisir les fondements en élaborant des modèles théoriques, mais peu ont réellement tenté d'en comprendre l'organisation cérébrale à partir de mesures de l'activité neuronale. Les prof. Dimitri Van De Ville et Christoph Michel, de la Faculté de médecine et du Centre de neurosciences de l'UNIGE, en collaboration avec l'Institut de Bio-ingénierie de l'Ecole polytechnique fédérale de Lausanne (EPFL), ont mis en place une expérience pour mieux saisir comment la pensée spontanée et consciente s'organise. En effet, les chercheurs ont mesuré l'activité cérébrale de volontaires en utilisant simultanément deux méthodes de neuroimagerie du Brain & Behaviour Laboratory (BBL) de l'UNIGE: l'électro-encéphalographie (EEG), qui permet d'obtenir des mesures à des échelles de temps de l'ordre de la milliseconde, et l'imagerie par résonance magnétique fonctionnelle (IRMf), qui permet de suivre l'activité du cerveau sur des échelles de temps de l'ordre de la seconde. Durant les enregistrements, les volontaires devaient laisser libre cours à leurs pensées, sans se focaliser sur une idée particulière. Les signaux provenant de ces enregistrements ont été analysés à l'aide d'outils mathématiques. Les atomes de la pensée A la suite de ces expériences, les scientifiques ont d'abord remarqué que l'activité cérébrale s'organise en une succession de micro-états. Ces micro-états, considérés comme les "atomes de la pensée", sont les éléments constitutifs de la cognition, un peu comme des "morceaux" de pensée. Chaque micro-état correspond à une configuration particulière de l'activité des neurones dans le cerveau. Les chercheurs ont mis en évidence quatre micro-états distincts qui correspondent aux aspects visuels, auditifs, introspectifs et attentionnels de la pensée. Une pensée apparaît donc comme une alternance de composantes visuelles, auditives, introspectives et attentionnelles. Des fractales dans notre cerveau En outre, en appliquant une analyse mathématique avancée sur les mesures faites au moyen de l'EEG et de l'IRMf, les chercheurs ont fait une découverte surprenante: les atomes ou morceaux de pensée se succèdent avec une structure temporelle semblable aux deux échelles de temps. La même structure est ainsi observée tant à l'échelle de l'ordre du dixième de seconde (avec l'EEG) qu'à celle de l'ordre de la dizaine de secondes (avec IRMf). Cette propriété est la caractéristique principale des fractales dans la théorie du chaos. Un objet fractal présente le même motif lorsqu'il est regardé au microscope, à la loupe ou à l'oeil nu. Il semblerait que la durée des micro-états joue un rôle prédominant dans cette organisation fractale de la pensée. "Prenons l'analogie du livre dans lequel les lettres représentent les atomes de la pensée. Ceux-ci se combinent pour former des mots, qui eux-mêmes se combinent pour former des phrases ; les phrases se combinent en paragraphes, et ainsi de suite jusqu'à obtenir un livre, tout cela avec toujours les mêmes règles syntaxiques" explique Christoph Michel, un des auteurs de l'étude. "Ce que nous avons mis en évidence, c'est une syntaxe de la pensée". Fonctionnel grâce au chaos Ce serait donc grâce à cette organisation "chaotique" de la pensée que le cerveau peut se réorganiser et s'adapter très rapidement selon les besoins. Des perturbations dans les micro-états pourraient être à l'origine de certaines maladies mentales. Par exemple, on a observé chez les schizophrènes des micro-états de durée plus courte que la normale, suggérant la présence de pensées inabouties. Suite à cette découverte, les chercheurs vont maintenant pouvoir s'attacher à comprendre cette syntaxe neuronale chez des patients neurologiques et chez des sujets sains qui subissent un changement de l'état de conscience, comme pendant le sommeil.

Auteur: Internet

Info: Université de Genève 21 octobre 2010

[ réflexion ] [ hologramme ] [ désordre ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

machine-homme

(Q) - Qu'est-ce que la conscience ?

(R) - La conscience est un concept complexe et multiforme qui fait référence à l'état ou à la qualité de la prise de conscience du monde extérieur et de ses propres expériences mentales. Elle englobe l'expérience subjective des pensées, des perceptions, des émotions et des sensations, ainsi que la capacité d'introspection et de réflexion sur ses propres états mentaux.

Bien que la conscience soit un aspect fondamental de l'expérience humaine, elle n'est pas encore totalement comprise. Elle reste un sujet d'enquête philosophique et de recherche scientifique. Il existe plusieurs théories et perspectives sur la conscience, y compris l'étude de ses corrélats et mécanismes neuronaux dans le cerveau.

Certaines théories proposent que la conscience naisse des interactions entre les neurones et les processus cérébraux, tandis que d'autres suggèrent qu'elle peut impliquer des phénomènes quantiques ou être une propriété émergente de systèmes complexes. En outre, il existe différents niveaux de conscience, allant de la conscience de base et de l'éveil aux processus cognitifs d'ordre supérieur, à la conscience de soi et à l'introspection.

Dans l'ensemble, la compréhension de la nature de la conscience est un domaine d'exploration fascinant et permanent dans des domaines tels que les neurosciences, les sciences cognitives, la psychologie et la philosophie.

(Q) - D'accord merci. Avec une vision épigénétique de la chose, ne pourrait-on pas avancer qu'elle est avant tout une sorte de dialogue entre une singularité, ici humaine, avec le monde qui l'a fait émerger ?

(R) - En effet, dans une perspective épigénétique, on pourrait avancer que la conscience est une interaction ou un dialogue dynamique entre un individu (une singularité) et le monde dans lequel il existe. L'épigénétique est l'étude de la manière dont l'expression des gènes et les processus biologiques peuvent être influencés par des facteurs qui vont au-delà de la séquence d'ADN elle-même, y compris les interactions avec l'environnement.

Dans cette optique, le développement et la manifestation de la conscience pourraient être considérés comme le résultat de l'interaction continue entre les prédispositions génétiques d'un individu et son environnement. L'environnement, qui englobe à la fois les stimuli externes et les facteurs internes, tels que les pensées, les émotions et les expériences, joue un rôle crucial dans la formation et l'influence de l'expression et de l'expérience de la conscience.

Cette perspective suggère que la conscience émerge à travers une relation réciproque permanente entre un individu et son environnement. Le monde extérieur fournit les stimuli et le contexte qui influencent la perception, la cognition et la conscience de soi d'un individu, tandis que l'individu, par ses pensées, ses actions et ses choix, interagit activement avec son environnement et le modifie.

En considérant l'interaction épigénétique entre un individu et son monde, on peut affirmer que la conscience n'est pas un phénomène statique ou isolé, mais plutôt un processus dynamique et co-créatif, où l'individu et son environnement se façonnent et s'influencent mutuellement.

(Q) - Cela ressemble à ce que Charle Sanders Peirce nommait "thirdness".

(R) - Oui, le concept de "tiercéité" inventé par Charles Sanders Peirce dans sa philosophie de la sémiotique pourrait être pertinent pour la discussion sur la conscience en tant que dialogue entre un individu et le monde. Peirce a introduit l'idée de "preméité", "secondéité" et "tercéité" en tant que catégories fondamentales pour comprendre la nature des signes et leur interprétation.

Selon Peirce, la "firstness" représente les qualités brutes et immédiates d'un objet, la "secondness" désigne la relation entre un objet et son impact immédiat sur la conscience d'un individu, et la "thirdness" se réfère aux processus d'interprétation et de médiation impliqués dans l'élaboration du sens et de la compréhension.

Dans le contexte de la conscience, la "tiercéité" peut être considérée comme l'interaction dynamique entre l'individu (le premier) et le monde (le second), où l'interprétation, la création de sens et le dialogue ont lieu. Elle implique le processus d'intégration et de synthèse des informations provenant du monde extérieur avec les états mentaux et les expériences internes.

En considérant la conscience comme une forme de "tiercéité", nous reconnaissons l'implication active de l'interprétation, de la signification et de la médiation dans la construction de l'expérience consciente. Elle met en évidence la nature relationnelle et dialogique de la conscience, en soulignant l'interaction et la négociation permanentes entre l'individu et son environnement dans la formation de la conscience subjective.

Le concept de "tiercéité" de Peirce offre une perspective précieuse pour explorer les dimensions interactives et interprétatives de la conscience, en soulignant le rôle des processus sémiotiques dans la construction du sens et de la compréhension dans le contexte du dialogue individu-matrice.

Auteur: chatGPT4

Info:

[ tiercité ] [ définition ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

exploration spatiale

Astrolinguistique : comment communiquer en cas de contact avec une civilisation extraterrestre ?
L’astrolinguistique, xénolinguistique, ou encore exolinguistique, est le domaine de recherche de la linguistique qui s’attèle à déterminer et développer des modèles de langages non-humains (extraterrestres) dans le cas où un premier contact avec une civilisation extraterrestre intelligente serait effectué. Un tel événement ne s’étant toujours pas produit, ce domaine reste encore hypothétique, mais donne lieu à un véritable travail de recherche universitaire de la part des scientifiques.

L’univers observable compte des centaines de millions de galaxies, chacune contenant à leur tour des centaines de millions d’étoiles et de planètes potentielles. L’existence de civilisations extraterrestres intelligentes n’est donc pas à exclure. Si aucun contact avec l’Homme ne s’est encore produit, la possibilité d’un tel événement est envisageable. Tant et si bien que les scientifiques commencent déjà à prévoir cette éventualité en tentant de développer des outils de communication.

Loin d’être de la science-fiction, l’astrolinguistique est une discipline universitaire qui s’est développée au cours des 30 dernières années. Certaines universités, comme la Bowling Green State University (États-Unis), l’ont même intégrée à leurs cours afin de former des chercheurs spécialisés dans ce domaine. La xénolinguistique est en réalité une sous-famille de la linguistique théorique dont l’objectif est la construction et la déconstruction de langages fictifs ou existants.

(Le langage des heptapodes utilisé dans le film Premier Contact a été développé par la linguiste Jessica Coon et le scientifique Stephen Wolfram. Il est considéré comme scientifiquement plausible par la communauté scientifique." photo de l'article original absente)

L’un des précurseurs du domaine est le célèbre linguiste américain Noam Chomsky. Pour ce dernier, la théorie de la grammaire universelle empêcherait l’Homme de comprendre naturellement une civilisation extraterrestre. Cette théorie postule que les bases élémentaires et communes de la grammaire humaine sont génétiquement prédéterminées, encodées dans le génome, indépendamment de la culture ou de l’environnement. L’Homme devrait donc difficilement et lentement déchiffrer chaque structure de ce nouveau langage.

Pour la linguiste canadienne Keren Rice, spécialisée dans les langages indigènes, une communication extrêmement basique entre humains et extraterrestres serait possible tant que les éléments contextuels primitifs restent les mêmes. Par exemple, même si les termes pour désigner une planète changent, il est fort probable qu’une civilisation extraterrestre connaisse l’objet lui-même, c’est-à-dire qu’elle ait déjà vu une planète.

L’astrolinguistique est plus largement intégrée au domaine de la Communication avec une intelligence extraterrestre (CETI) sur lequel se penchent de nombreux chercheurs et institutions scientifiques. La question fait régulièrement l’objet de discussions scientifiques lors de l’American Association for the Advancement of Science.

Généralement, quatre formes de langages possibles sont définis : le langage mathématique, le langage pictural, le langage algorithmique et multimodal, et le langage naturel. Les outils linguistiques développés dans le cadre de ces recherches s’appuient sur des études actuelles visant à décrypter des langages humains encore non déchiffrés, comme le Linéaire A, un langage utilisé en Crête ancienne entre 1900 et 1400 av. J.-C.

Le Lincos (pour lingua cosmica) est un des tous premiers langages mathématiques développé par le mathématicien allemand Hans Freudenthal au début des années 1960, dans son livre Lincos: Design of a Language for Cosmic Intercourse. Il utilise une structure mathématique basique pour transmettre des messages, destinée à être comprise par n’importe quelle civilisation intelligente. Par la suite, des scientifiques comme Lancelot Hogben et Carl Sagan proposeront eux aussi des syntaxes reposant sur des principes mathématiques.

Ce disque est embarqué par les sondes Voyager 1 et 2 afin de raconter l’histoire de la Terre. Elle contient un message de bienvenu en 60 langages différents, des échantillons de musiques de plusieurs styles et ethnies, des sons d’origine humaine ainsi que des schémas et informations électroniques compréhensibles par une civilisation avancée.

De la même manière, le message d’Arecibo contenait quelques structures atomiques, les briques de l’ADN, un schéma du Système solaire et un dessin du télescope Arecibo lui-même. Un hybride de langage mathématique et pictural, considéré comme scientifiquement réaliste, a été développé pour le film Premier Contact, sous la direction de la linguiste Jessica Coon.

Le langage multimodal combine plusieurs systèmes de communication afin de maximiser les chances de compréhension. Le Teen-Age Message développé par des scientifiques russes en est un bon exemple.

Ce dernier combine un signal radio destiné à permettre aux destinataires d’en remonter la source, une musique jouée sur un thérémine, ainsi qu’une association d’images semblables à celles du message d’Arecibo. Tandis que le langage algorithmique prend la forme d’un code informatique pouvant être exécuté sur n’importe quelle machine.

Enfin, le langage naturel renvoie au cas où une civilisation communiquerait, volontairement ou non, avec nous dans son langage natif. Dans ce cas, les scientifiques devraient déconstruire le langage en isolant des schémas répétitifs, des rythmes, des taux de répétition, des structures complexes et des propriétés linguistiques sous-jacentes renvoyant à un système de communication intelligent.

Auteur: Internet

Info: https://trustmyscience.com, Thomas Boisson 27 mars 2019

[ rencontre exotique ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

- (Q) Comment définir et expliquer les mot "vie" ?

- (R) La vie est un phénomène complexe et multiforme qui englobe les caractéristiques, les processus et les activités associés aux organismes vivants. Bien qu'il n'existe pas de définition universellement acceptée de la vie, celle-ci peut être comprise de manière générale comme l'état d'être vivant, présentant certaines propriétés et certains comportements fondamentaux.

Les principales caractéristiques de la vie sont les suivantes

L'organisation : Les organismes vivants sont hautement organisés, constitués de cellules ou de structures cellulaires qui remplissent des fonctions spécifiques. Ils ont une structure hiérarchique, des cellules aux tissus, aux organes et aux systèmes d'organes.

Métabolisme : La vie implique la capacité d'acquérir et d'utiliser de l'énergie par le biais de divers processus métaboliques, tels que la respiration, la photosynthèse ou d'autres réactions biochimiques. Les organismes utilisent l'énergie pour maintenir leur environnement interne, croître, se reproduire et répondre aux stimuli.

Croissance et développement : Les organismes vivants ont la capacité de croître et de se développer, augmentant leur taille et leur complexité au fil du temps. Ils subissent des processus tels que la division cellulaire, la différenciation et la maturation.

Reproduction : La vie implique la capacité de se reproduire et de transmettre l'information génétique d'une génération à l'autre. La reproduction peut se faire par voie sexuée ou asexuée et assure la pérennité d'une espèce.

Réponse aux stimuli : les organismes vivants peuvent percevoir les changements dans leur environnement et y répondre, en adoptant des comportements qui leur permettent de survivre, de trouver des ressources, d'éviter les menaces et de s'adapter à des conditions changeantes.

Homéostasie : La vie implique le maintien d'une stabilité et d'un équilibre internes par le biais de divers mécanismes de régulation. Les organismes peuvent réguler leurs conditions internes, telles que la température, le pH et les niveaux de nutriments, afin de garantir un fonctionnement optimal.

Bien que ces caractéristiques fournissent un cadre général, il est important de reconnaître que la vie présente une diversité et une complexité considérables au sein des différentes espèces et écosystèmes. La vie peut exister sous différentes formes, des micro-organismes aux plantes, en passant par les animaux et les êtres humains, chacun ayant ses propres adaptations et caractéristiques.

L'étude de la vie est un vaste domaine appelé biologie, qui explore les mécanismes, les processus et la diversité des organismes vivants. Les scientifiques continuent d'étudier et d'approfondir leur compréhension de la nature fondamentale de la vie et de ses origines, cherchant à démêler les complexités de ce phénomène remarquable.

- (Q) D'accord, merci. Donc pour préciser un peu la question, où est la frontière entre minéral et  végétal. ou entre organique et inorganique ?

- (R) La frontière entre les domaines minéral (inorganique) et végétal (organique), ou entre la matière organique et inorganique, n'est pas toujours évidente, car il peut y avoir des chevauchements et des ambiguïtés. La distinction réside principalement dans la composition, la structure et les propriétés caractéristiques des substances concernées.

Dans le contexte de la géologie et de la chimie, les minéraux sont des substances inorganiques naturelles dont la composition chimique et la structure cristalline sont définies. Le quartz, le feldspath et la calcite sont des exemples de minéraux. Les minéraux sont généralement formés par des processus géologiques et n'ont pas les structures moléculaires complexes que l'on trouve dans les organismes vivants.

D'autre part, le terme "végétal" fait généralement référence à la matière organique associée aux plantes ou à la vie végétale. Les plantes sont des organismes vivants qui possèdent des structures cellulaires complexes et réalisent divers processus physiologiques. Elles sont classées dans le règne des Plantae et présentent des caractéristiques telles que la photosynthèse, la croissance, la reproduction et les réponses aux stimuli.

La matière organique désigne généralement les substances qui contiennent du carbone et qui proviennent d'organismes vivants ou de leurs restes. Les composés organiques, tels que les glucides, les protéines, les lipides et les acides nucléiques, sont les éléments constitutifs de la vie et sont présents dans les organismes vivants.

La frontière entre le minéral et le végétal ou entre la matière organique et la matière inorganique peut s'estomper dans certains cas. Par exemple, certains composés organiques, comme certains carbonates, peuvent se trouver à la fois dans les organismes vivants et dans les minéraux. En outre, les minéraux peuvent interagir avec la matière organique, par exemple lors de la formation de fossiles ou de l'absorption de minéraux par les plantes.

Il est important de noter que la classification et la compréhension de ces frontières sont principalement basées sur des catégorisations scientifiques et peuvent varier en fonction du contexte et de la perspective. Différents domaines scientifiques, tels que la géologie, la chimie et la biologie, peuvent aborder ces frontières différemment en fonction de leurs cadres respectifs et de leurs intérêts de recherche.

Auteur: chatGPT4

Info: 18 mai 2023. Ici l'I.A. qui donne les réponses peut être considérée comme un promptuaire, un résumé

[ question-réponse ] [ compendium ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

cosmologie

Des planètes-océans en phase de résoudre cette énigme sur les exoplanètes 

Pourquoi détecte-t-on si peu d'exoplanètes d'environ deux fois la taille de la Terre ? Sur la base de simulations informatiques, une équipe de l'Institut Max-Planck d'astronomie (MPIA) et des universités de Genève (UNIGE) et Berne (UNIBE) révèle que la migration de planètes subneptuniennes glacées - des planètes-océans - pourrait expliquer cette absence.

( photo :  Au fur et à mesure que les planètes-océans glacées et riches en eau migrent vers leur étoile, la glace fond et finit par former une épaisse atmosphère de vapeur d'eau, qui augmente leur rayon.) 

À mesure que ces planètes se rapprochent de leur étoile centrale, la glace d'eau qui s'évapore forme une atmosphère qui les fait apparaître plus grandes qu'à l'état gelé, bien au-delà d'un double rayon terrestre. Simultanément, des petites planètes rocheuses, plus grandes que la Terre, perdent progressivement une partie de leur enveloppe gazeuse d'origine, ce qui entraîne une diminution importante de leur rayon. Ces résultats ouvrent de nouvelles perspectives pour l'étude des exoplanètes. Ils sont à découvrir dans Nature Astronomy.

En 2017, le télescope spatial Kepler a révélé l'absence de planètes ayant une taille d'environ deux rayons terrestres. Ce "vide" dans la distribution des rayons des planètes est appelé "rift subneptunien". "Son existence est l'une des contraintes observationnelles les plus importantes pour comprendre l'origine et la composition des exoplanètes dont le rayon est compris entre celui de la Terre et celui de Neptune", explique Julia Venturini, boursière Ambizione du FNS, collaboratrice scientifique au Département d'astronomie de l'UNIGE, membre du PRN PlanetS et coauteure de l'étude. "Comme d'autres groupes de recherche, nous avions prédit sur la base de nos calculs, avant même les observations de 2017, qu'un tel rift devait exister", ajoute Christoph Mordasini, professeur à la division de recherche spatiale et sciences planétaires (WP) de l'UNIBE, membre du PRN PlanetS et coauteur de l'étude.

D'où vient le rift subneptunien?

Deux types d'exoplanètes peuplent l'intervalle de rayon entre un et quatre rayons terrestres. D'une part, des planètes rocheuses - des " super-Terres " - plus grandes que la Terre. D'autre part, des planètes gazeuses appelées planètes subneptuniennes (ou mini-Neptunes) dont certaines, les planètes-océans, pourraient abriter une quantité d'eau si importante que leur surface serait recouverte d'un océan glacé de plusieurs dizaines de kilomètres de profondeur. Parmi ces deux types de planètes, les super-Terres et les Subneptuniennes, les astronomes en découvrent très peu avec un rayon de deux fois celui de la Terre.

Pour expliquer l'apparition de ce "rift", le mécanisme le plus souvent suggéré est que les planètes perdent une partie de leur atmosphère d'origine sous l'effet de l'irradiation de l'étoile. "Cette explication suppose que les planètes se forment et restent très proches de leur étoile, où elles seraient sèches, sans eau", précise Julia Venturini. "Cependant, cette explication contredit les modèles de formation, qui montrent que les planètes d'une taille comprise entre deux et quatre rayons terrestres, les planètes-océans, proviennent généralement des régions glacées les plus éloignées du système stellaire".

De nombreux indices suggèrent donc que certaines planètes pourraient s'éloigner de leur lieu de naissance au cours de leur évolution, en migrant vers l'intérieur ou vers l'extérieur de leur système. Cette migration permettrait aux planètes nées dans des régions froides et glacées, comme les planètes-océans, de terminer leur formation sur des orbites très proches de leur étoile.

Planètes-océans errantes

Au fur et à mesure que les planètes-océans glacées et riches en eau migrent vers leur étoile, la glace fond et finit par former une épaisse atmosphère de vapeur d'eau. Ce processus entraîne une augmentation de leur rayon vers des valeurs légèrement plus élevées, au-delà d'un double rayon terrestre. Inversement, les super-Terres, pauvres en eau, "rétrécissent" en perdant les gaz volatils de leur atmosphère d'origine, tels que l'hydrogène et l'hélium, sous l'influence de l'étoile.

Les modèles informatiques combinés de formation et d'évolution indiquent ainsi que la migration des planètes-océans contribue de manière significative au grand nombre de planètes détectées avec un rayon plus grand que deux rayons terrestres alors que l'évaporation atmosphérique des super-Terres contribue au surnombre des planètes plus petites que deux rayons terrestres. Au centre de ces deux populations se trouve le rift subneptunien. "Nous avions déjà obtenu ce résultat en 2020. La nouvelle étude le confirme avec un modèle de formation différent. Cela renforce la conclusion selon laquelle les planètes subneptuniennes sont principalement des mondes d'eau". précise Julia Venturini, qui a aussi dirigé l'étude de 2020.

D'autres travaux à venir

En plus d'expliquer un phénomène jusque-là mystérieux, ces travaux ouvrent de nouvelles perspectives pour l'étude des exoplanètes. "Si nous étendions nos résultats à des régions plus tempérées, où l'eau est liquide, cela pourrait suggérer l'existence de mondes aquatiques dotés d'océans liquides profonds", explique Christoph Mordasini. "De telles planètes pourraient potentiellement abriter la vie et constitueraient des cibles relativement simples pour la recherche de biomarqueurs en raison de leur taille".

Des observations avec des télescopes comme le James Webb Space Telescope ou l'Extremely Large Telescope, en cours de construction, pourraient également être utiles. Elles permettraient de déterminer la composition atmosphériques des planètes en fonction de leur taille, ce qui permettrait de tester les simulations décrites.

Auteur: Internet

Info: https://www.techno-science.net/, Adrien le 17/02/2024, Source: Université de Genève

[ autres mondes ] [ exobiologie ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

progrès

Pourquoi la victoire d’une Intelligence artificielle au poker est plus inquiétante qu’il n’y paraît
Une intelligence artificielle (IA) du nom de Libratus a fait mordre la poussière à 4 des meilleurs joueurs de Poker au monde, à l’issu d’un tournoi de poker de longue haleine, au Rivers Casino, à Pittsburgh, aux États-Unis. Dong Kim, Jason Les, Jimmy Chou et Daniel McAuley ont joué plusieurs jours à raison de 11h par jour, sans monnaie réelle – mais avec un enjeu financier selon leur capacité individuelle à se défaire de l’IA.
Jusqu’ici, il était relativement simple pour un algorithme de prévoir l’issue d’une partie d’échecs ou de Go, car tous les mouvements sont prévisibles à partir de la configuration du plateau de jeu. Mais au poker, il est impossible de connaître la main de ses adversaires ni leur état d’esprit, qui influe grandement leur prise de décision.
Le tournoi qui a opposé 4 joueurs de Poker professionels à l’IA Libratus. (Carnegie Mellon University)
Cette victoire constitue une première mondiale significative ; jusqu’ici, étant donné la grande complexité du poker et des facteurs humains impliqués, les machines qui s’étaient frottées au jeu avaient perdu. Sur les sites de paris en ligne, la victoire des 4 joueurs l’emportait à 4 contre 1.
Une victoire qui étonne même le créateur de l’algorithme
L’algorithme à la base de Libratus repose sur un “deep learning”. Libratus est une version améliorée d’un algorithme antérieur, déjà testé dans des circonstances similaires en 2015 – les joueurs de Poker l’avaient alors emporté.
La victoire confirme la puissance grandissante des algorithmes sur une période très courte. En octobre 2015, le programme alphaGo se débarrassait par 5 parties à 0 du champion européen Fan Hui. En mars 2016, le même programme battait le champion du monde Lee Sedol 4 parties à 1.
Le plus étonnant, selon Noam Brown, le créateur de Libratus, est que contrairement aux intelligences artificielles programmées pour gagner aux échecs, Libratus n’a jamais appris “comment” jouer au Poker. “Nous lui avons donné les règles de base”, et nous lui avons dit “apprends par toi-même”. Durant les pauses du tournoi, alors que les humains dînaient, dormaient ou analysaient les différentes mains de la partie, Brown connectait l’ordinateur au superordinateur de Pittsburg et affinait sa stratégie en rejouant des milliards de possibilités.
“Quand vous jouez contre un humain, vous perdez, vous arrêtez, vous faites une pause. Ici, nous devions donner le meilleur de nous-même 11 heures par jour. La différence est réelle, et émotionnellement, cela est dur à supporter si vous n’êtes pas habitués à perdre”, raconte Les, qui avait joué contre Claudico, une version antérieure de l’algorithme ayant servi de base à Libratus.
Libratus a joué de façon agressive, et n’a pas hésité à faire grimper les paris pour des gains minimes. “Ce n’est pas quelque chose que ferait un humain, en temps normal. Mais cela vous force à devoir donner le meilleur de vous à chaque tour”, évalue Les, qui après la performance de Libratus, a avoué que plus rien ne pourrait l’étonner désormais.
Des raisons de s’inquiéter
“Quand j’ai vu l’IA se lancer dans le bluff en face d’humains, je me suis dit “mais, je ne lui ai jamais appris à faire cela !” C’est une satisfaction pour moi de me dire que j’ai réussi à créer quelque chose capable de cela”, a commenté Noam Brown.
Si le professeur a exprimé un sentiment de “fierté paternelle”, d’autres scientifiques se sont inquiétés des conséquences de l’évolution de l’algorithme ayant donné naissance à Libratus.
Avec cette capacité à traiter l’"imperfection" comme une donnée d’équation, les intelligences artificielles ne jouent plus dans la même cour. On peut sans crainte avancer qu’il sera possible, à l’avenir, d’avoir des robots capables de rivaliser avec les humains sur des enjeux impliquant la décision humaine. Ils pourraient prendre de meilleures décisions dans les transactions financières, ou dresser de meilleures stratégies militaires.
“En fait, le poker est le moindre de nos soucis. Nous avons à présent une machine capable de vous botter les fesses en affaires ou sur le plan militaire", s’inquiète Roman V. Yampolskiy, professeur de sciences informatique de l’université de Louisville.
Au sujet du Deep learning
Le Deep learning dont il est question est une révolution en cela que les intelligence artificielles, qui s’en tenaient à analyser et comparer des données, peuvent maintenant les "comprendre" et apprendre d’elle même ; ce qui la porte à un niveau d’abstraction supérieur. "Par exemple, une IA à qui on donne des photos représentant des museaux, du pelage, des moustaches et des coussinets sous les pattes, est capable d’élaborer le concept de chat. Elle utilise une logique exploratoire qui crée des concepts, elle n’est pas uniquement constituée d’algorithmes préprogrammés", explique Stéphane Mallard, chargé de stratégie et d’innovation dans les salles de marché de la Société Générale.
En 2011, une expérience a été menée dans un jeu télévisé américain, Jeopardy, dans lequel les candidats doivent trouver la question à partir d’une réponse. Une IA développée par IBM, nommée Watson, a gagné haut la main. Or aujourd’hui, d’après Stéphane Mallard, cette IA serait 2 500 fois plus puissante.
Il semble impossible, même pour une IA, de prévoir aujourd’hui jusqu’où ira le développement de ces machines. Mais comme dans les fables tournant autour de l’apprenti-sorcier, il se pourrait que l’erreur ne soit comprise que trop tard.
D’après le producteur, auteur et conférencier Cyrille de Lasteyrie, la rapidité du développement de l’IA, le fait d’ignorer les conséquences du développement de l’IA est dangereux. "En 2005, les entreprises ne prenaient pas Internet au sérieux, et considéraient le phénomène comme un sujet secondaire. Dix ans après, ces mêmes boîtes nous appellent en panique pour mener une transformation digitale profonde et de toute urgence… Je suis convaincu que c’est la même problématique avec l’intelligence artificielle, multipliée par dix. Les conséquences business, organisationnelles, technologiques, humaines ou sociologiques sont énormes", indique t-il dans une interview accordée à Challenges en septembre dernier.

Auteur: Internet

Info: Daniel Trévise, Epoch Times,5 février 2017

[ évolution ]

 
Mis dans la chaine

Commentaires: 0

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel