mathématiques
Algorithmes à Temps Polynomial pour Factorisation Primaire et Logarithmes Discrets sur un Ordinateur Quantique :
On considère généralement qu'un ordinateur numérique est un dispositif informatique universel efficace; C'est-à-dire qu'on l'estime capable de simuler n'importe quel dispositif de calcul physique avec augmentation du temps de calcul d'un facteur polynomial au plus.
Cela peut ne pas être vrai lorsque la mécanique quantique est prise en considération. Cet article examine l'affacturage des entiers et la recherche de logarithmes discrets, deux problèmes qui sont généralement considérés comme difficiles sur un ordinateur classique et qui ont servi de base à plusieurs propositions de cryptosystèmes. Des algorithmes aléatoires efficaces sont donnés pour ces deux problèmes sur un ordinateur quantique hypothétique. Ces algorithmes passent un certain nombre d'étapes polynomiales dans la mémoire d'entrée, par exemple le nombre de numéros de l'entier à prendre en compte.
Auteur:
Shor Peter W
Années: 1957 -
Epoque – Courant religieux: Récent et Libéralisme économique
Sexe: H
Profession et précisions: mathématicien
Continent – Pays: Amérique du nord - Usa
Info:
AT&T Research, révisé en 1996
[
computation
]
intelligence artificielle
Notre article "Precision Machine Learning" montre que les réseaux neuronaux surpassent l'interpolation simplex uniquement dans plus de 2 dimensions, en exploitant la modularité. Nous développons des astuces de formation pour un ML de haute précision, utiles pour la science et l'interprétabilité.
Résumé : Nous explorons les considérations particulières impliquées dans l'ajustement des modèles ML aux données demandant une très grande précision, comme c'est souvent le cas pour les applications scientifiques. Nous comparons empiriquement diverses méthodes d'approximation de fonctions et étudions leur évolution en fonction de l'augmentation des paramètres et des données. Nous constatons que les réseaux neuronaux peuvent souvent surpasser les méthodes d'approximation classiques pour les exemples à dimensions élevées, en découvrant et en exploitant automatiquement les structures modulaires qu'ils contiennent. Cependant, les réseaux neuronaux dressés-formés avec des optimiseurs courants sont moins puissants pour les cas à basse dimension, ce qui nous motive à étudier les propriétés uniques des zones de déperdition des réseaux neuronaux et les défis d'optimisation qui se présentent et correspondent dans le régime de haute précision. Pour résoudre le problème de l'optimisation en basse dimension, nous développons des astuces d'entraînement-formation qui nous permettent de faire fonctionner les réseaux neuronaux avec une déperdition extrêmement faibles, proche des limites permises par la précision numérique.
Auteur:
Tegmark Max
Années: 1967 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: H
Profession et précisions: physicien, cosmologiste, professeur au MIT
Continent – Pays: Suède - Usa
Info:
Écrit avec Eric J. Michaud et Ziming Liu, oct 2022
[
mathématiques appliquées
]
[
apprentissage automatique
]
[
physique computationnelle
]
[
machine-homme
]
[
affinements mécaniques
]
[
sémantique élargie
]