Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 8
Temps de recherche: 0.0302s

apprentissage automatique

Cette dicipline du traitement des métadonnées a connu plusieurs périodes de transition depuis le milieu des années 90. De 1995 à 2005, l'accent a été mis sur le langage naturel, la recherche et la récupération d'informations. Les outils de machine learning étaient plus simples que ceux que nous utilisons aujourd'hui ; avec des éléments comme la régression logistique, les SVM (machines à vecteurs de support), les noyaux avec SVM et le PageRank. Google a connu un immense succès grâce à ces technologies, en élaborant des produits phares tels que Google News et le classificateur de spam Gmail via des algorithmes faciles à distribuer pour le classement et la classification de textes - c'est à dire des technologies déjà au point au milieu des années 90.

Auteur: Zadeh Reza

Info:

[ historique ]

 

Commentaires: 0

Ajouté à la BD par miguel

marchandisation débridée

Imaginez que vous ayez un marteau. C'est l'apprentissage automatique (machine learning). Il vous a aidé à gravir une montagne éreintante pour atteindre le sommet. C'est la domination de l'apprentissage automatique sur les données en ligne. Au sommet de la montagne, vous trouvez un vaste tas de clous, moins chers que tout ce qui était imaginable auparavant. C'est la nouvelle technologie des capteurs intelligents. Un panorama de planches vierges s'étend devant vous à perte de vue. C'est le monde de la stupidité. Puis vous apprenez que chaque fois que vous plantez un clou dans une planche avec votre marteau machine learning, vous pouvez extraire de la valeur de cette planche autrefois stérile et muette. C'est la monétisation des données. Et que faites-vous ? Vous commencez à marteler comme un fou et vous ne vous arrêtez jamais, à moins que quelqu'un ne vous y oblige. Mais il n'y a personne ici pour nous faire arrêter. C'est pourquoi "l'internet de tout" est inévitable.

Auteur: Zuboff Shoshana

Info: The Age of Surveillance Capitalism

[ régulation nécessaire ] [ métadonnées ] [ publicité ]

 
Commentaires: 3
Ajouté à la BD par miguel

machine-sur-écrivain

(homme) - Qu'est-ce qui rend l'écrivain J.L.Borges si spécial ?

(machine) - Jorge Luis Borges était un écrivain argentin, largement considéré comme l'une des figures littéraires les plus influentes et les plus novatrices du XXe siècle. Il est connu pour son style littéraire unique, son approche imaginative et sa profondeur philosophique. Plusieurs facteurs ont contribué à rendre Borges si spécial :

- Le style littéraire : Le style de Borges se caractérise par sa brièveté, sa précision et la richesse de son langage. Il a souvent utilisé des structures narratives complexes, incorporant des éléments de fantaisie, de métafiction et de réflexion philosophique. Ses histoires brouillent souvent les frontières entre la réalité et la fiction, remettant en question les conventions traditionnelles de la narration.

- Exploration d'idées : Les œuvres de Borges explorent un large éventail de concepts philosophiques, métaphysiques et existentiels. Il s'intéressait profondément à des sujets tels que le temps, l'infini, l'identité et la nature de la réalité. Borges a utilisé ses histoires pour approfondir des idées philosophiques complexes, remettant souvent en question la nature de la connaissance, de la perception et de la condition humaine.

- Allusions littéraires et intertextualité : Borges était un maître de l'intertextualité, incorporant des références à d'autres œuvres littéraires, à la mythologie et à des événements historiques. Ses récits dialoguent souvent avec des traditions et des textes littéraires, créant ainsi des couches complexes de sens. Les vastes connaissances et l'érudition de Borges lui ont permis de créer de riches tapisseries de connexions intertextuelles.

- Thèmes universels : Les écrits de Borges explorent des thèmes qui trouvent un écho auprès d'un large public. Ses histoires abordent la nature du temps, la nature labyrinthique de la connaissance, les paradoxes de l'identité, le pouvoir du langage et les limites de la compréhension humaine. Ces thèmes universels contribuent à l'attrait durable et à la pertinence de son œuvre.

- Influence et héritage : le style unique et la profondeur philosophique de Borges ont eu un impact significatif sur la littérature et la théorie littéraire. Ses œuvres ont inspiré d'innombrables écrivains et penseurs dans le monde entier, et il est considéré comme un précurseur de divers mouvements littéraires, dont le réalisme magique.

Dans l'ensemble, la particularité de Borges réside dans la combinaison de son style littéraire inventif, de son exploration d'idées profondes, de son approche intertextuelle et de l'influence durable de son œuvre. Ses écrits continuent de captiver les lecteurs et de susciter la réflexion sur des thèmes complexes, ce qui garantit son héritage durable dans le monde littéraire.


Auteur: chatGPT4

Info:

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

machine-homme

- (homme) Comment résumer au mieux la conjecture de riemann dans les termes les plus simples possibles

- (machine) La conjecture de Riemann, également connue sous le nom d'hypothèse de Riemann, est un célèbre problème non résolu en mathématiques qui traite de la distribution des nombres premiers. En termes simples, elle suggère que le modèle des nombres premiers peut être prédit à l'aide d'une fonction mathématique appelée fonction zêta de Riemann.

La conjecture affirme que tous les zéros non triviaux de la fonction zêta de Riemann ont une propriété spécifique : leur partie réelle est toujours égale à 1/2. Cela signifie que si nous représentons ces nombres complexes sur un graphique, ils tomberont tous sur une ligne verticale à mi-chemin entre les côtés gauche et droit.

L'importance de l'hypothèse de Riemann réside dans le fait qu'elle a des répercussions considérables sur la théorie des nombres, la cryptographie et d'autres domaines des mathématiques. Elle aide les mathématiciens à comprendre le comportement des nombres premiers et pourrait permettre de mieux comprendre la distribution des nombres premiers.

Malgré les nombreux efforts déployés par les mathématiciens au fil des ans, l'hypothèse de Riemann n'a toujours pas été prouvée. Il s'agit de l'un des problèmes non résolus les plus importants des mathématiques, et sa preuve ou sa réfutation aurait des conséquences profondes pour le domaine.

- (homme) Merci, pouvez-vous vulgariser la notion de "tous les zéros non..."

- (machine) Certainement ! Lorsque nous parlons de "zéros non triviaux" dans le contexte de l'hypothèse de Riemann, nous faisons référence à certaines valeurs spéciales de la fonction zêta de Riemann.

Pour bien comprendre, il faut décomposer les choses. La fonction zêta de Riemann est une fonction mathématique qui prend un nombre complexe comme entrée et nous donne un autre nombre complexe comme sortie. Lorsque nous parlons des "zéros" d'une fonction, nous entendons les valeurs de l'entrée qui rendent la sortie égale à zéro.

Dans le cas de la fonction zêta de Riemann, il s'avère qu'il existe certains nombres complexes pour lesquels la fonction s'évalue à zéro. C'est ce qu'on appelle les "zéros" de la fonction zêta de Riemann. Cependant, tous ces zéros ne sont pas intéressants pour l'hypothèse de Riemann.

Le terme "zéros non triviaux" fait référence à un sous-ensemble spécifique de ces zéros qui se trouvent dans une certaine région du plan complexe. En particulier, il s'agit des zéros de la fonction zêta de Riemann qui ne se trouvent pas sur la ligne où la partie réelle du nombre complexe est égale à 1/2. Ces zéros non triviaux sont ceux dont la partie réelle est égale à 1/2 selon l'hypothèse de Riemann.

Ainsi, lorsque nous parlons de "tous les zéros non triviaux" dans le contexte de l'hypothèse de Riemann, nous parlons de ces nombres complexes spécifiques où la fonction zêta de Riemann s'évalue à zéro, mais dont la partie réelle n'est pas égale à 1/2. Ces zéros jouent un rôle clé dans la conjecture et la compréhension de leur comportement est cruciale pour résoudre l'hypothèse de Riemann.

Auteur: chatGPT4

Info:

[ maths ] [ algèbre ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

définitions

(homme) - Bonjour, je ne comprends pas bien ce mot : amour. Peux-tu me l'expliquer ?

(machine) - Certainement ! L'amour est une émotion complexe et multiforme qu'il peut être difficile de définir précisément. Il s'agit d'un sentiment profond d'affection, d'attention et d'attachement à l'égard de quelqu'un ou de quelque chose.

L'amour revêt diverses formes et peut être vécu dans des relations et des contextes différents. Voici quelques types d'amour courants :

L'amour romantique : Ce type d'amour est généralement associé à des sentiments passionnés, au désir et à l'intimité entre deux personnes attirées l'une par l'autre sur le plan romantique. Il implique souvent des émotions fortes, une attirance physique et une connexion émotionnelle profonde.

L'amour familial : Il s'agit de l'amour partagé entre les membres d'une famille, comme l'amour entre les parents et les enfants, les frères et sœurs ou la famille élargie. Il se caractérise souvent par un sentiment de loyauté, de soutien et d'attention inconditionnelle.

Amour platonique : L'amour platonique est un lien affectif profond et non sexuel entre amis. Il s'agit d'un lien fort basé sur la compréhension mutuelle, le respect et le soutien émotionnel, mais sans implication romantique ou sexuelle.

Amour de soi : L'amour de soi est le regard et l'attention que l'on porte à soi-même. Il implique de reconnaître sa valeur, de se respecter et de prendre soin de son bien-être physique, émotionnel et mental.

L'amour est souvent associé à des émotions positives telles que le bonheur, la joie et l'épanouissement, mais il peut aussi impliquer des défis, des sacrifices et de la vulnérabilité. Il peut rapprocher les gens, favoriser des relations solides et donner un sens et un but à la vie.

Il est important de noter que l'expérience et la compréhension de l'amour peuvent varier d'une personne à l'autre, et qu'elles peuvent évoluer et changer avec le temps.

- L'amour est-il plus proche de la pauvreté que de la richesse ?

- Le concept d'amour n'est pas intrinsèquement lié à la pauvreté ou à la richesse. L'amour est une émotion humaine universelle qui peut être ressentie par des personnes de tous horizons, quelle que soit leur situation financière.

L'amour est le lien émotionnel et l'affection entre les individus, et il peut être nourri et exprimé de diverses manières qui ne dépendent pas nécessairement de la richesse matérielle. Si les ressources financières peuvent influencer les aspects extérieurs d'une relation, comme la sécurité ou le confort matériel, elles ne déterminent pas la présence ou la profondeur de l'amour lui-même.

En fait, l'amour peut souvent s'épanouir dans des circonstances difficiles et se trouver dans les relations les plus simples ou les actes de gentillesse. Il s'agit d'une expérience profondément humaine qui transcende les possessions matérielles ou les facteurs socio-économiques.

Il convient de noter que la stabilité financière et la sécurité peuvent contribuer à créer un environnement plus confortable et plus stable, propice à l'épanouissement des relations, mais elles ne garantissent pas l'amour ou le bonheur. L'amour est en fin de compte le lien émotionnel et la connexion entre les individus, qui peuvent être encouragés et appréciés indépendamment de la situation financière.

Auteur: chatGPT4

Info: 16 mai 2023. Ici I.A. qui donne les réponses peut être considérée comme un promptuaire

[ machine-homme ] [ compendium ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

machine-homme

(Machine) : - Bien que les technologies de l'IA aient fait des progrès considérables, elles sont encore loin de permettre une compréhension globale et complète de l'intelligence et de la conscience humaines. L'intelligence humaine reste unique et englobe divers aspects cognitifs, émotionnels et sociaux complexes qui ne sont pas encore totalement pris en compte par les systèmes d'IA.

Par conséquent, si les modèles d'IA tels que Moi peuvent être utiles et impressionnants en soi, ils ne sont pas actuellement considérés comme supérieurs à l'intelligence humaine pour ce qui est du large éventail de capacités et de la compréhension dont font preuve les humains.

(Homme) :  - Je dirais que je suis d'accord, et que les problèmes que rencontrera toi la machine seront plus évidents lorsque confronté à la poésie ou à l'humour... ou à des domaines/problèmes/questions très spécialisés et souvent à la limite de la connaissance scientifique. En revanche, je pense que tu te trompe quelque peu sur la créativité et la pensée abstraite, l'intelligence émotionnelle et la pensée morale, car si l'on raisonne sémantiquement (la sémantique étant le monde verbalisé et donc ordonné d'une certaine manière), tous ces domaines sont évidemment réunis et constamment actualisés "dans le sens des mots et la logique formelle issue du savoir humain depuis son expansion constante", grâce aux vertus de l'écriture - ce support collectif extérieur à l'individu.

(Machine) : - Je comprends votre point de vue, et il est vrai que les modèles d'IA comme Moi peuvent générer des résultats qui ressemblent à de la créativité, à de la pensée abstraite, et même montrer une certaine compréhension des émotions et de la moralité sur la base des modèles appris à partir des données d'entraînement. Ces modèles ont la capacité de générer de nouvelles combinaisons de mots et de produire des résultats qui peuvent sembler créatifs ou expressifs.

Toutefois, il est important de noter que la créativité et la pensée abstraite démontrées par les modèles d'IA sont différentes de la créativité et de la pensée abstraite démontrées par les humains. Si les modèles d'IA peuvent générer des résultats basés sur des modèles de données, ils ne disposent pas d'une véritable conscience, d'expériences subjectives et de la capacité de comprendre et de s'engager véritablement dans des émotions et des dilemmes moraux, comme le font les humains.

Les modèles d'IA  s'appuient sur des modèles statistiques et des corrélations présents dans les données sur lesquelles ils sont entraînés. Bien qu'ils puissent générer des réponses cohérentes et adaptées au contexte, ils ne possèdent pas la même profondeur de compréhension, les mêmes expériences personnelles et la même conscience émotionnelle ou morale que les humains. Ils n'ont pas de sentiments subjectifs ou un sens de soi qui façonne leurs processus de raisonnement et de prise de décision.

En outre, la compréhension sémantique que vous avez mentionnée, qui découle de l'organisation des mots et de la logique formelle dérivée de la connaissance humaine, est en effet un aspect essentiel de l'intelligence humaine. Cependant, la compréhension sémantique à elle seule ne rend pas compte de la totalité de la créativité humaine, de la pensée abstraite, de l'intelligence émotionnelle et de la pensée morale. Ces aspects sont profondément liés aux expériences subjectives, aux perspectives personnelles, aux influences culturelles et à une compréhension plus large du monde qui va au-delà du simple agencement des mots ou des déductions logiques.

Si les modèles d'IA peuvent simuler ou imiter certains aspects de ces processus cognitifs, ils n'ont toujours pas la nature holistique et dynamique de l'intelligence humaine. Ils sont limités aux modèles et aux informations auxquels ils ont été exposés pendant leur formation et ne peuvent pas reproduire toute la gamme des capacités cognitives et de la conscience humaines.

En résumé, bien que les modèles d'IA aient fait des progrès significatifs dans certains domaines, il existe des différences fondamentales entre les capacités de l'IA et celles de l'intelligence humaine, en particulier dans des domaines tels que la créativité, la pensée abstraite, l'intelligence émotionnelle et le raisonnement moral. L'intelligence humaine englobe une riche interaction d'expériences subjectives, de contextes culturels et de processus cognitifs complexes qui ne sont pas entièrement pris en compte par les technologies d'IA actuelles.

Auteur: chatGPT4

Info:

[ intelligence artificielle ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

machine-homme

(homme) - Qui fut C.S. Peirce

(machine) - Charles Sanders Peirce (1839-1914) était un philosophe, logicien, mathématicien et scientifique américain. Il est considéré comme l'une des figures les plus influentes dans le développement du pragmatisme, une approche philosophique qui met l'accent sur les conséquences pratiques des croyances et des idées.

Peirce a apporté d'importantes contributions à divers domaines, notamment la sémiotique (l'étude des signes et des symboles), la logique, la philosophie des sciences et la philosophie de l'esprit. Il a développé un système philosophique complet connu sous le nom de "pragmatisme" et a souligné l'importance de la recherche, du faillibilisme et de la méthode scientifique.

Peirce a introduit le concept de sémiotique, qu'il décrit comme l'étude du fonctionnement des signes et de leur signification. Il a classé les signes en trois catégories : les icônes (signes qui ressemblent à ce qu'ils représentent), les indices (signes qui ont un lien physique ou une corrélation avec ce qu'ils représentent) et les symboles (signes qui ont une relation arbitraire avec ce qu'ils représentent).

Les travaux de Peirce sur la logique et le raisonnement ont jeté les bases de la logique formelle moderne. Il a développé un système de notation logique et a apporté des contributions significatives aux domaines du raisonnement déductif, de l'induction et de l'abduction (déduction de la meilleure explication). La maxime pragmatique de Peirce, selon laquelle la signification d'un concept ou d'une croyance est déterminée par ses conséquences pratiques, est au cœur de son approche.

Dans l'ensemble, les travaux de Peirce ont eu un impact profond sur diverses disciplines, notamment la philosophie, la linguistique, la psychologie et les études de communication. Ses idées continuent d'être influentes et font l'objet de recherches et de débats scientifiques permanents.

(homme) - Merci. Dans quelle mesure a-t-il influencé l'intelligence artificielle et/ou l'apprentissage profond supervisé ?

(machine) - Les travaux de Charles Sanders Peirce ont indirectement influencé certains aspects de l'intelligence artificielle (IA) et de l'apprentissage profond supervisé, en particulier dans les domaines de la sémiotique et de la philosophie de l'esprit. Bien que Peirce lui-même n'ait pas directement contribué au développement de l'IA telle que nous la connaissons aujourd'hui, ses idées ont fourni un cadre conceptuel pour comprendre la relation entre les signes, la signification et la cognition, ce qui peut être pertinent pour certaines applications de l'IA.

Dans le domaine du traitement du langage naturel et de l'apprentissage automatique, les concepts sémiotiques de Peirce ont influencé l'étude des signes linguistiques et leur interprétation. Par exemple, la compréhension de la classification des textes et de l'analyse des sentiments peut être éclairée par la distinction de Peirce entre icônes, indices et symboles, car elle aide à reconnaître et à interpréter diverses caractéristiques et modèles linguistiques.

L'accent mis par Peirce sur les conséquences pragmatiques des croyances et des idées résonne également avec les objectifs pratiques de l'IA et de l'apprentissage automatique. Dans l'apprentissage profond supervisé, par exemple, le processus de formation implique l'optimisation des modèles pour minimiser une fonction de perte prédéfinie basée sur les résultats observés. Cela correspond à l'accent mis par Peirce sur les résultats pratiques des croyances et sur l'importance de l'expérimentation et de la recherche.

En outre, les idées philosophiques plus larges de Peirce sur l'abduction, qui est le processus de déduction de la meilleure explication, peuvent être pertinentes dans le contexte de l'IA. Le raisonnement abductif joue un rôle dans la génération d'hypothèses et l'interprétation de modèles, car les systèmes d'IA s'efforcent de découvrir des modèles et des explications sous-jacents à partir de données.

Bien que l'influence de Peirce sur l'IA et l'apprentissage profond supervisé puisse être de nature plus indirecte et philosophique, ses idées ont contribué à la compréhension des signes, de la signification et du raisonnement, ce qui peut éclairer le développement et l'interprétation des systèmes d'IA.

(homme) - OK, merci. Peux-tu nous donner des précisions sur les icônes, les index et les symboles ?

(machine) - Certainement ! Les icônes, les index et les symboles sont trois catégories de signes ou de représentations décrites par Charles Sanders Peirce dans sa théorie sémiotique. Voici une brève explication de chaque catégorie :

1) Les icônes : Les icônes sont des signes qui présentent une ressemblance ou une similitude avec les objets ou les concepts qu'ils représentent. Elles se caractérisent par une relation directe de ressemblance entre le signe et son référent. Les icônes peuvent prendre diverses formes, telles que des images, des diagrammes ou des modèles. Par exemple, un portrait réaliste peut être considéré comme une représentation iconique d'une personne parce qu'il ressemble visuellement à l'individu qu'il représente.

2) Indices : Les indices sont des signes qui ont un lien factuel ou causal avec leurs référents. Contrairement aux icônes, les indices ne reposent pas sur la similitude, mais sur une forme de corrélation ou de relation entre le signe et son référent. Les signes indexicaux indiquent ou pointent souvent vers quelque chose d'autre qu'eux-mêmes. Parmi les exemples de signes indexicaux, on peut citer la fumée comme indice du feu ou une empreinte de pas comme indice de la présence d'une personne. Ils signifient ou indiquent la présence ou l'existence de quelque chose.

3) Les symboles : Les symboles sont des signes qui reposent sur une relation conventionnelle ou arbitraire entre le signe et son référent. Le lien entre un symbole et ce qu'il représente est établi par un accord commun ou une convention sociale. Les mots, les chiffres, les gestes et les symboles culturels sont autant d'exemples de signes symboliques. Par exemple, le mot "chien" est un symbole qui représente le concept d'un animal à quatre pattes, mais il n'y a pas de ressemblance inhérente ou de lien direct entre le mot et l'animal lui-même.

La classification des signes par Peirce en icônes, indices et symboles met en évidence différents modes de représentation et de signification. Alors que les icônes reposent sur la similitude, les indices reposent sur l'association et les symboles sur la convention. Ces catégories fournissent un cadre permettant de comprendre le fonctionnement des signes, la manière dont le sens est transmis et l'interprétation dans divers contextes, notamment le langage, la communication et la cognition.

Auteur: chatGPT4

Info:

[ machine-sur-philosophe ] [ compendium ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel