Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Nuage de corrélats : pour l'activer, cochez seulement catégorie et tag dans la recherche avancée à gauche.
Résultat(s): 94767
Temps de recherche: 0.1375s

rapports humains

J'ai toujours pensé qu'il était important d'accepter les gens dans votre vie pour ce qu'ils sont. Il n'y a pas d'ami parfait, pas plus qu'il n'y a de chose parfaite, et si vous vous moquez de tous ceux qui font partie de votre vie pour leurs nombreux et divers défauts, vous allez manquer d'apprécier les bonnes choses qu'ils apportent à la table.

Auteur: Ashton Edward

Info: Mickey7

[ ouverture ] [ tolérance ]

 

Commentaires: 0

Ajouté à la BD par miguel

neuroscience

La potentialisation à long terme (PLT - ou LTP, Long-Term Potentiation) est un processus qui se produit dans le cerveau et qui est associé au renforcement des connexions entre les neurones, qui sont les cellules responsables de la transmission des informations dans le cerveau. La PLT est considérée comme l'un des mécanismes fondamentaux de l'apprentissage et de la formation de la mémoire. 

Elle se produit selon ce processus.

1 Les neurones du cerveau communiquent entre eux par l'intermédiaire de connexions spécialisées appelées synapses. Ces synapses sont constituées d'un neurone présynaptique (neurone émetteur) et d'un neurone postsynaptique (neurone récepteur).

2 Lorsque ces neurones s'activent ensemble de manière répétée et cohérente, ils déclenchent un processus de plasticité synaptique, en particulier le PLT. Cela se produit généralement lors d'une stimulation à haute fréquence du neurone présynaptique.

3 Au cours de la PLT, certains changements se produisent au niveau de la synapse. L'un des principaux changements est l'augmentation de la force de la connexion synaptique. Cela signifie que le neurone postsynaptique devient plus sensible aux signaux du neurone présynaptique.

4 On pense que l'augmentation de la force de la synapse est due à différents mécanismes, notamment une augmentation de la libération de neurotransmetteurs (messagers chimiques) par le neurone présynaptique et des changements dans la réactivité des récepteurs sur le neurone postsynaptique.

5 Ces changements entraînent une transmission plus efficace des signaux entre les neurones, ce qui facilite la communication entre eux. Cette communication améliorée entre les neurones serait à la base de l'apprentissage et de la formation de nouveaux souvenirs.

Il doit être noté que le processus de PLT est complexe et qu'il implique divers événements moléculaires et cellulaires qui contribuent au renforcement des connexions entre les neurones, crucial pour apprendre et se souvenir.

Auteur: chatGPT4

Info: 27 juin 2023

[ capture synaptique ] [ mémorisation ] [ apprentissage ]

 

Commentaires: 0

Ajouté à la BD par miguel

anatman

Quand j'étais enfant, je croyais qu'il y avait une personne essentielle, une sorte de personnalité centrale autour de laquelle les éléments de surface pouvaient évoluer sans modifier l'intégrité de son identité. Plus tard, j'ai commencé à comprendre qu'il s'agissait d'une erreur de perception, causée par les métaphores que nous employons pour nous définir. La personnalité n'est rien de plus que la forme passagère d'une des vagues devant soi... ou, pour ralentir le processus à une vitesse plus humaine, la personnalité est une dune. Une forme passagère qui répond au stimulus du vent, de la gravité, de l'éducation. De la carte des gènes. Tout est sujet à l'érosion et au changement. La seule façon de rester soi est de se mettre en pile pour toujours.

"De la même façon qu'un sextant primitif fonctionne suivant l'illusion que le Soleil et les étoiles tournent autour de notre planète, nos sens nous donnent l'illusion de la stabilité dans l'univers et nous l'acceptons, parce que sans cette illusion, rien ne peut être accompli."

Auteur: Morgan Richard K.

Info: Takeshi Kovacs, tome 1 : Carbone modifié

[ ego chimère ]

 

Commentaires: 0

Ajouté à la BD par miguel

cyberpunk

"C'est triste. La vie est devenue plastique et artificielle. Il est de plus en plus difficile de trouver quelque chose de... réel." Nin décroisa ses doigts et déploya ses bras. "Un vrai amour, de vrais amis, de véritables parties du corps..."

Auteur: Scott Jess C.

Info:

[ corps-esprit ] [ regret ] [ organique déconnexion ]

 

Commentaires: 0

Ajouté à la BD par miguel

question

À quoi servait le temps pour ceux qui atteindraient bientôt l'immortalité numérique ?

Auteur: Dsouza Clyde

Info: Memories With Maya

[ désincarnation ]

 

Commentaires: 0

Ajouté à la BD par miguel

IVG

À mon avis, le mouvement pro-vie devrait à ce stade se concentrer sur la réduction du nombre d'avortements. Parfois, il faudra une éducation politique et des combats juridiques, parfois cela nécessitera une éducation et la mise en place d'alternatives à l'avortement, comme les centres d'adoption. Malheureusement, ces mesures sont parfois combattues par ce que l'on appelle les partisans de la ligne dure au sein du mouvement pro-vie. Ces partisans de la ligne dure sont stupides. Parce qu'ils veulent interdire tous les avortements, ils refusent de se contenter d'arrêter certains avortements ; la conséquence est qu'ils finissent par n'empêcher aucun avortement.

Auteur: D'Souza Dinesh

Info: Letters to a Young Conservative

[ anti-avortement ] [ extrémistes ]

 

Commentaires: 0

Ajouté à la BD par miguel

distanciation

C'est étonnant de constater combien, une fois l'esprit libéré de toute pollution émotionnelle, la logique et la clarté émergent.

Auteur: Dsouza Clyde

Info: Souvenirs avec Maya

[ pur esprit désincarné ] [ transhumanisme ] [ froideur ]

 

Commentaires: 0

Ajouté à la BD par miguel

canoter

La barque glisse sur l’eau régulièrement, un train sur des rails. Depuis qu’il est là, son corps a eu le temps de s’accommoder à l’exercice, il a fait du muscle, dirait sa mère. Du muscle, mais pas seulement : le geste est fluide et assuré. Janvier maîtrise son embarcation, elle file à travers les rues silencieuses, on ne sent plus les coups de rame.

Après les avoir redoutées, ce sont désormais les périodes qu’il préfère, les grandes marées, il les attend, quand on ne peut plus circuler à pied et que l’eau pénètre partout. Alors on ne voit plus les murs décrépis, les objets qui jonchent le sol, les maisons qui menacent de s’effondrer, les trottoirs détruits. Inondée, la ville rutile, comme neuve.

Auteur: Dordor Charlotte

Info: Le retour de Janvier - Incipit

[ embarcation urbaine ] [ science-fiction ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel

penseur

(Q)- Peux-tu résumer ses principales positions philosophiques de la manière la plus claire et la plus simple possible ?

(R) - Certainement ! Voici un résumé simplifié des principales positions philosophiques de Stefan Lorenz Sorgner :

Il adhère à l'idée de dépasser les limites humaines grâce à la technologie et à l'amélioration de l'être humain.

- Il propose un concept de dignité plus inclusif et dynamique qui prend en compte le potentiel de transformation et la diversité des êtres.

- Technologies émergentes : Sorgner explore les implications de technologies telles que le génie génétique et l'intelligence artificielle sur l'existence humaine et envisage un avenir où les humains pourront améliorer leurs capacités cognitives, physiques et émotionnelles.

- Considérations éthiques : Il examine les aspects éthiques de l'amélioration humaine, notamment les questions de répartition des ressources, d'accès aux technologies, de risques potentiels et de conséquences involontaires.

- Potentiel humain : Sorgner considère l'intégration de la technologie comme une opportunité pour l'homme de rechercher des formes d'existence plus élevées et d'atteindre de nouveaux niveaux d'accomplissement.

En substance, la philosophie de Sorgner préconise d'adopter les avancées technologiques pour étendre les capacités humaines, de redéfinir le concept de dignité et de s'engager de manière critique dans les implications éthiques de l'amélioration de l'être humain.

 

Auteur: chatGPT4

Info:

[ posthumanisme ] [ métahumanisme ] [ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste