Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 2
Temps de recherche: 0.028s

mathématiques

Algorithmes à Temps Polynomial pour Factorisation Primaire et Logarithmes Discrets sur un Ordinateur Quantique :
On considère généralement qu'un ordinateur numérique est un dispositif informatique universel efficace; C'est-à-dire qu'on l'estime capable de simuler n'importe quel dispositif de calcul physique avec augmentation du temps de calcul d'un facteur polynomial au plus.
Cela peut ne pas être vrai lorsque la mécanique quantique est prise en considération. Cet article examine l'affacturage des entiers et la recherche de logarithmes discrets, deux problèmes qui sont généralement considérés comme difficiles sur un ordinateur classique et qui ont servi de base à plusieurs propositions de cryptosystèmes. Des algorithmes aléatoires efficaces sont donnés pour ces deux problèmes sur un ordinateur quantique hypothétique. Ces algorithmes passent un certain nombre d'étapes polynomiales dans la mémoire d'entrée, par exemple le nombre de numéros de l'entier à prendre en compte.

Auteur: Shor Peter W

Info: AT&T Research, révisé en 1996

[ computation ]

 

Commentaires: 0

intelligence artificielle

Notre article "Precision Machine Learning" montre que les réseaux neuronaux surpassent l'interpolation simplex uniquement dans plus de 2 dimensions, en exploitant la modularité. Nous développons des astuces de formation pour un ML de haute précision, utiles pour la science et l'interprétabilité.

Résumé : Nous explorons les considérations particulières impliquées dans l'ajustement des modèles ML aux données demandant une très grande précision, comme c'est souvent le cas pour les applications scientifiques. Nous comparons empiriquement diverses méthodes d'approximation de fonctions et étudions leur évolution en fonction de l'augmentation des paramètres et des données. Nous constatons que les réseaux neuronaux peuvent souvent surpasser les méthodes d'approximation classiques pour les exemples à dimensions élevées, en découvrant et en exploitant automatiquement les structures modulaires qu'ils contiennent. Cependant, les réseaux neuronaux dressés-formés avec des optimiseurs courants sont moins puissants pour les cas à basse dimension, ce qui nous motive à étudier les propriétés uniques des zones de déperdition des réseaux neuronaux et les défis d'optimisation qui se présentent et correspondent dans le régime de haute précision. Pour résoudre le problème de l'optimisation en basse dimension, nous développons des astuces d'entraînement-formation qui nous permettent de faire fonctionner les réseaux neuronaux avec une déperdition extrêmement faibles, proche des limites permises par la précision numérique.

Auteur: Tegmark Max

Info: Écrit avec Eric J. Michaud et Ziming Liu, oct 2022

[ mathématiques appliquées ] [ apprentissage automatique ] [ physique computationnelle ] [ machine-homme ] [ affinements mécaniques ] [ sémantique élargie ]

 

Commentaires: 0

Ajouté à la BD par miguel