Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 5
Temps de recherche: 0.0296s

écologie

Cette idée que nous sommes les "intendants de la terre" est un autre symptôme de l'arrogance humaine. Imaginez-vous en train de superviser les processus physiques de votre corps. Comprenez-vous suffisamment comment il fonctionne pour maintenir tous ses systèmes en fonction ? Pouvez-vous faire fonctionner vos reins ? Pouvez-vous contrôler l'élimination des déchets ? Êtes-vous conscient du flux sanguin dans vos artères, ou du fait que vous perdez cent mille cellules de peau par minute ?

Auteur: Margulis Lynn

Info:

[ outrecuidance ]

 

Commentaires: 0

Ajouté à la BD par miguel

compromission

A la différence des soldes, qui n’ont lieu que deux fois par an, la vente des élites du pouvoir européen aux majors du grand capitalisme est un exercice permanent. L’ONG Transparency International a établi en 2017 que 30% des députés européens qui ont quitté la politique et plus de 50% des commissaires européens se sont recasés comme lobbyistes à la solde des majors du capitalisme, ou se sont mis au service des entreprises qu’ils étaient supposés superviser lorsqu’ils étaient en fonction.

Auteur: Bouchard Jean-François

Info: L'éternelle truanderie capitaliste

[ corruption ] [ cénacles ] [ politique ] [ revolving doors ] [ copinage ]

 

Commentaires: 0

Ajouté à la BD par miguel

trouble-fête

Notre démocratie n’est pas en péril – nous ne vivons pas dans une démocratie. L’image de notre démocratie est en péril. L’État profond – généraux, banquiers, industriels, lobbyistes, chefs du renseignement, fonctionnaires du gouvernement et technocrates – est déterminé à sauver la réputation de cette institution. Il est difficile de se vanter d’être le gardien de la liberté et de la liberté dans le monde avec Donald Trump qui parle de lui-même de façon incohérente, incite à la violence raciste, insulte nos alliés traditionnels ainsi que les tribunaux, la presse et le Congrès, twitte des inepties mal orthographiées et dénonce ou sabote impulsivement la politique intérieure et étrangère bipartite. Mais le péché le plus impardonnable de Trump aux yeux de l’État profond est sa critique des guerres sans fin de l’empire, même s’il manque des compétences intellectuelles et organisationnelles pour superviser un désengagement.

Auteur: Hedges Christopher Lynn

Info:

[ Usa ] [ politique ]

 

Commentaires: 0

Ajouté à la BD par miguel

femmes-hommes

Au cours de l'histoire de la Chine, la fonction des dames de cour a connu d'importantes évolutions. On note déjà leur présence sous les régimes féodaux (...) sous le nom de nu-che. Leurs tâches consistaient surtout à superviser les rapports sexuels du roi et de ses femmes. Elles "veillaient à ce que le roi les reçût aux bons jours du calendrier et selon la périodicité établie par les rites pour chacun des rangs." (...) Conduisant les femmes à la chambre royale, elles donnaient à la femme un anneau  d'argent qu'elle devait passer à la main droite quand on l'a conduisait en ce lieu, et demeuraient sur place pour observer la consommation de l'union et en noter le résultat. (...) Quand par la suite, il s'avérait que la femme avait conçu, la nu-che lui donnait un anneau d'or à porter. (...) Les eunuques furent, par la suite, chargés de cette fonction auprès de l'empereur; les dames de cour se consacrèrent à l'impératrice.

Auteur: He Rong Er

Info: Mémoires d'une dame de cour dans la Cité Interdite

[ harem ] [ reproduction ]

 
Commentaires: 2
Ajouté à la BD par Le sous-projectionniste

Intelligence artificielle

OpenAI présente Super Alignment : Ouvrir la voie à une IA sûre et alignée

La présentation par OpenAI de son développement du super alignement est extrêmement prometteuse pour l'humanité. Grâce à ses capacités étendues, il est en mesure de répondre à certains des problèmes les plus urgents auxquels notre planète est confrontée. Le risque de déresponsabilisation, voire d'anéantissement de l'humanité, est l'un des graves dangers associés à l'émergence de la superintelligence.

L'arrivée du super-alignement

Le super-alignement peut sembler une possibilité lointaine, mais il pourrait se matérialiser dans les dix prochaines années. Nous devons créer de nouvelles structures de gouvernance et traiter le problème de l'alignement des superintelligences afin de maîtriser efficacement les risques qui y sont associés.

Superalignement de l'IA et de l'homme : Le défi actuel

Garantir que les systèmes d'IA, qui sont beaucoup plus intelligents que les humains, s'alignent sur les intentions de ces derniers constitue un obstacle de taille. Actuellement, nos techniques d'alignement de l'IA, telles que l'apprentissage par renforcement à partir du retour d'information humain, reposent sur la supervision humaine. Cependant, lorsqu'il s'agit de systèmes d'IA dépassant l'intelligence humaine, nos méthodes d'alignement actuelles deviennent inadéquates. Pour y remédier, nous avons besoin de nouvelles percées scientifiques et techniques.

OpenAI a mis à disposition ses modèles de cohérence pour la génération d'œuvres d'art par l'IA

Surmonter les hypothèses et intensifier les efforts d'alignement

Plusieurs hypothèses qui guident actuellement le développement de l'IA risquent d'échouer lorsque nous entrerons dans l'ère de la superintelligence. Il s'agit notamment de la capacité de nos modèles à identifier et à contourner la supervision au cours de la formation, ainsi que de leurs caractéristiques de généralisation favorables au cours du déploiement.

Un chercheur d'alignement automatique doté d'une intelligence proche de celle de l'homme, c'est ce que l'OpenAI vise à construire. L'objectif est d'intensifier les efforts et d'aligner itérativement la superintelligence en utilisant une grande puissance de calcul.

Construire les bases d'un super-alignement

Pour atteindre son objectif de chercheur en alignement automatisé, l'OpenAI a identifié trois étapes clés :

Se transformer en expert et avoir un impact significatif sur le monde de la science des données.

1. Développer une méthode de formation évolutive

OpenAI se concentrera sur la création d'une stratégie de formation qui s'adapte bien. Cette méthode sera essentielle pour apprendre aux systèmes d'IA à effectuer des activités difficiles à évaluer pour les humains.

2. Validation du modèle résultant

Il est essentiel de valider l'efficacité du chercheur d'alignement après sa construction. Pour s'assurer que le modèle est conforme aux intentions humaines et qu'il fonctionne comme prévu, l'OpenAI le soumettra à des tests rigoureux.

3. Test de stress du pipeline d'alignement

OpenAI soumettra son pipeline d'alignement à des tests de stress approfondis pour s'assurer de sa durabilité. En soumettant ses systèmes à des situations difficiles, elle pourra trouver d'éventuelles failles et les corriger.

Exploiter les systèmes d'IA pour la supervision et la généralisation

L'OpenAI utilisera des systèmes d'IA pour aider à l'évaluation d'autres systèmes d'IA afin de résoudre la difficulté de superviser des tâches qui sont difficiles à juger pour les humains. Cette méthode de supervision évolutive vise à garantir la réussite de l'alignement. Les chercheurs se pencheront également sur la généralisation de la surveillance, qui permettra aux systèmes d'IA de gérer des activités qui ne sont pas sous le contrôle de l'homme.

Validation de l'alignement : Robustesse et interprétabilité

Pour garantir l'alignement des systèmes d'IA, il est nécessaire de se concentrer sur deux facteurs essentiels : la robustesse et l'interprétabilité. Afin de découvrir d'éventuels problèmes d'alignement, l'OpenAI examinera les éléments internes de ses systèmes et automatisera la recherche de comportements problématiques.

Tests adverses : Détection des désalignements

OpenAI entraînera délibérément des modèles mal alignés pour évaluer l'efficacité de ses méthodes d'alignement. Elle peut évaluer l'efficacité de ses stratégies d'identification et de résolution des désalignements en testant ces modèles de manière rigoureuse et contradictoire.

Évolution des priorités de recherche et collaboration

L'OpenAI est consciente qu'à mesure qu'elle en apprendra davantage sur la question de l'alignement des superintelligences, ses objectifs de recherche évolueront. Les meilleurs chercheurs et ingénieurs en apprentissage automatique seront réunis pour travailler sur ce projet. Afin de créer de nouvelles techniques et de les déployer à grande échelle, l'OpenAI encourage les contributions d'autres équipes et souhaite publier plus d'informations sur sa feuille de route à l'avenir.

L'OpenAI est néanmoins optimiste, même si le défi de l'alignement de la superintelligence est ambitieux et que le succès n'est pas garanti. Elle a réalisé des tests préliminaires encourageants et dispose de mesures utiles pour suivre le développement. L'OpenAI est d'avis qu'un effort ciblé et coopératif peut aboutir à une résolution.

L'équipe dédiée de l'OpenAI : Leaders et collaboration

Le cofondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a fait de l'alignement de la superintelligence le principal sujet de son étude. Il codirigera le groupe avec Jan Leike, responsable de l'alignement. L'équipe est composée de chercheurs et d'ingénieurs talentueux issus de l'ancienne équipe d'alignement de l'OpenAI ainsi que de chercheurs d'autres équipes de l'entreprise.

OpenAI recherche activement des universitaires et des ingénieurs de haut niveau pour se joindre à ses efforts. Ils souhaitent diffuser largement les résultats de leurs travaux, qu'ils considèrent comme essentiels à leur objectif d'aider à l'alignement et à la sécurité des modèles non-OpenAI.

Notre avis

Les efforts de la nouvelle équipe Superalignment complètent ceux d'OpenAI pour rendre les modèles existants comme ChatGPT plus sûrs. Les différents problèmes posés par l'IA, tels que les abus, les perturbations économiques, la désinformation, les préjugés, la discrimination, la dépendance et la surdépendance, sont également au centre des préoccupations de l'OpenAI. Elle collabore avec des professionnels pluridisciplinaires pour s'assurer que ses solutions techniques répondent à des problèmes sociétaux et humains plus importants.

En se consacrant à la création de systèmes d'IA sûrs et compatibles, OpenAI est à l'origine de technologies révolutionnaires qui influenceront la manière dont l'humanité fonctionnera à l'avenir.

Auteur: Sakshi Khanna

Info: https://www.analyticsvidhya.com/blog/author/sakshi_raheja/ - Publié le 8 juillet 2023

[ homme-machine ] [ machine-homme ] [ conservation du pouvoir ] [ prépondérance de l'humain ]

 

Commentaires: 0

Ajouté à la BD par miguel