Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 17
Temps de recherche: 0.0433s

représentation de soi

Le développement de la photographie nous a permis de démultiplier notre image. Qu’on y songe : il se prenait moins d’un milliard de photographies par an en 1930 alors qu’on en compte aujourd’hui, chaque année, près de 1 000 milliards ! L’un des objectifs les plus évidents de cette compulsion photographique est de proposer ces images de nous-mêmes à l’ensemble des membres de notre réseau social en scrutant le nombre de notifications que cette exhibition produit. Nous poussons parfois l’impudeur jusqu’à photographier le contenu de nos assiettes pour faire savoir combien même nos repas ne sont pas banals. Mais, puisque nous sommes des légions à alimenter ainsi ce narcissisme, d’où vient qu’il soit unanimement condamné ?

Il est vrai que cette passion photographique peut avoir des conséquences inattendues et regrettables. Certains paysages naturels, par exemple, sont défigurés par des légions d’instagrameurs avides de prendre et de diffuser la photo exceptionnelle. Le parc canadien de Joffre Lakes n’est plus le même depuis que, ces dernières années, sa fréquentation s’est accrue de plus de 250 % ! La raison en est qu’il abrite trois magnifiques lacs d’eau turquoise qui, surmontés par un glacier, offrent un décor magnifique ne demandant qu’à être immortalisé. Cerise sur le gâteau, un tronc d’arbre large et solide échoué depuis une rive permet de s’aventurer au-dessus d’un des lacs. Ce tronc a même été renommé Instalog. La raison ? Sur ce tronc pouvant soutenir le poids de plusieurs individus, on peut se faire prendre en photo en donnant l’impression qu’on est absolument seul face à la nature sauvage. Un produit parfait pour récolter des cœurs sur le réseau Instagram dévolu au partage de photographies. Faire cette photo est même devenu un passage obligé de la visite du parc. Si chacune de ces photos était décadrée, le sentiment qu’elle inspirerait serait bien différent : on verrait que devant le tronc s’allonge une file d’attente composées d’individus impatients et agressifs, attendant de faire la même photo pour pouvoir partager ce moment unique sur les réseaux sociaux.

Le destin d’un grand nombre de lieux de la planète a été modifié parce que le paysage qu’ils offrent est devenu viral sur les réseaux sociaux. C’est encore le cas de Trolltunga en Norvège, spectaculaire pic rocheux qui avance dans le vide à 700 mètres de hauteur. En 2010, quelques centaines de personnes seulement bravaient la difficile randonnée qui permettait d’accéder à ce graal. En 2016, il croulait sous les 90 000 visiteurs voulant à tout prix prendre la photo emblématique.

Le propriétaire d’une ferme de la province de Manitoba, au Canada, se souviendra lui aussi longtemps de ces milliers de personnes qui, en un week-end, ont débarqué dans ses champs de tournesol pour tenter de prendre la même photographie qu’elles avaient admirée quelques jours avant sur Instagram. Il en va de même pour la petite ville californienne de Lake Elsinore qui, à la Saint-Patrick, a vu l’un de ses champs de pavot piétiné par les 100 000 personnes avides de reproduire les photos qu’avait prises une influenceuse. Ce type de situation conduit parfois à des décisions radicales. Dans l’État de Washington, aux États-Unis, on a préféré détruire le Vance Creek Bridge, un magnifique pont abandonné traversant la forêt, plutôt que de subir le vandalisme plus ou moins volontaire de la légion des individus voulant faire la photo unique et cependant identique à toutes les autres.

Auteur: Bronner Gérald

Info: Apocalypse cognitive

[ destruction ] [ phénomène de masse ] [ mimétisme ] [ panurgisme ]

 
Commentaires: 1
Ajouté à la BD par Coli Masson

réseaux sociaux

Le shadow banning et son rôle dans la censure moderne

Les médias sociaux nous observent et contrôlent ce que nous voyons.

Ce n'est pas un secret, les algorithmes dominent nos vies sociales en ligne - ce n'est pas comme si nous ne prenions pas nos propres décisions lorsqu'il s'agit de savoir à qui nous parlons ou quels médias nous consommons, mais ce serait faire preuve d'une vraie ignorance qu'ignorer comment les systèmes ont été programmés pour catégoriser, collecter et suggérer des données simplement en fonction de nos goûts et de nos suivis. Cela nous expose à des contenus, des personnes et des idées que nous n'aurions pas trouvés par nous-mêmes, mais cela soulève la question du degré de contrôle que ces systèmes exercent sur ce que nous voyons. Voilà qui nous amène au shadow banning. 

Le shadow banning est la décision d'une plateforme de médias sociaux d'empêcher partiellement ou totalement l'interaction avec le contenu d'une personne - empêcher de nouvelles personnes de rechercher votre contenu, s'assurer que vous n'apparaissez pas sous les hashtags ou même limiter la fréquence à laquelle vous êtes suggéré comme personne à suivre... ne sont que quelques exemples de la façon dont cela peut être réalisé. Les plateformes telles qu'Instagram et Tiktok reconnaissent rarement les allégations de cette nature, mais soulignent plutôt leur droit de supprimer les publications qui ne sont pas conformes à leurs directives communautaires et le fait qu'en acceptant d'utiliser la plateforme, vous consentez à leur pouvoir de le faire. 

D'une manière générale, le fait que vos vidéos soient supprimées ou que moins de personnes puissent y accéder n'est pas le plus grand préjudice du monde, mais il faut noter que les personnes qui font l'objet d'un bannissement caché présentent un profil significatif. Si je me réfère aux directives de la communauté Tiktok, il est dit que sont mises au rebut les vidéos créées dans le but de nuire à autrui. Mais dans ces directives, ils s'efforcent de répéter que sont autorisés "les contenus éducatifs, historiques, satiriques, artistiques et autres qui peuvent être clairement identifiés comme des contre-discours ou qui visent à sensibiliser aux dommages causés par des individus et/ou des organisations dangereuses". Cette citation et leur déclaration de soutien au mouvement Black Lives Matter surprendront surtout tous les de créatifs noirs qui ont vu leur taux de fréquentation chuter et leurs vidéos être retirées de leur profil. 

Instagram s'est montré tout aussi complice dans cette affaire - il y a eu un retour de bâton significatif de la part des travailleurs du sexe, des éducateurs sexuels et souvent des espaces inclusifs, queer et sexuellement positifs sur cette application. Dans son article publié dans le Guardian, Chante Joseph a exposé la zone grise qui n'est pas aussi clairement définie que la politique de non-nudité d'Instagram, où les administrateurs peuvent signaler un contenu comme étant "sexuellement suggestif" ; beaucoup de gens affirment que c'est nécessaire afin de s'assurer que les enfants ne sont pas exposés à des contenus inappropriés - plutôt que de responsabiliser les parents ou que les plateformes de médias sociaux tentent au moins d'introduire une forme de restriction d'âge, la charge est donc placée sur les créateurs. Mais considérons, par exemple, les créateurs LGBTQIA+ ; leurs comptes fournissent des informations auxquelles des jeunes qui n'ont peut-être même pas fait leur coming out pourraient avoir accès afin de pouvoir traiter et comprendre leurs sentiments dans un espace sain qui ne leur était pas accessible il y a seulement dix ans. En substance, ces directives sur ce qu'une personne est autorisée à partager sont définies par une norme morale arbitraire où les discussions sur le sexe, en particulier celles qui se situent en dehors du domaine de l'hétéronormatif, sont quelque chose dont il faut se protéger, même s'il y a très peu d'espaces qui les autorisent dans la vie réelle.

Instagram, Twitter, TikTok, Facebook ont tous la réputation d'être superficiels et de reposer sur l'auto-gratification des gens qui veulent exister et être vus (ce qui n'est même pas une mauvaise chose en soi), mais à côté de cela, ils peuvent être utilisés pour partager des idées, des pensées politiques et des savoirs. Ainsi, lorsque des créateurs noirs qui tentent d'informer les masses sont empêchés de partager des informations ou lorsque des messages de travailleurs du sexe sur la misogynie sont inaccessibles parce que leur page est considérée comme trop "sexuellement suggestive" (terme indéfini et donc difficile à traiter), le silence est assourdissant. Le shadowbanning est une menace pour nous tous car il maintient l'illusion du contrôle. Or, cette idée est synonyme de censure et d'obstruction à l'information. De plus, cette obstruction est dictée par ce que les plateformes considèrent comme approprié, de sorte que le pouvoir que nous supposions avoir dans nos voix peut constamment être réduit au silence.

Auteur: Oluwakemi Agunbiade

Info: https://cherwell.org/, 3 septembre 2020

[ pouvoir numérique ]

 

Commentaires: 0

Ajouté à la BD par miguel

censure douce

LE GONCOURT 2023 TROUBLÉ PAR UNE POLÉMIQUE AUTOUR DES "SENSITIVITY READERS"

L'auteur Kevin Lambert a fait appel à une "sensitivity reader" pour son roman, retenu dans la première sélection du Goncourt 2023. Nicolas Mathieu, décoré de ce prestigieux prix en 2018, s'est élevé contre cette pratique.

Le prix Goncourt ne s'attendait pas à une polémique en sélectionnant le roman d'un Québécois, jusqu'à ce qu'on apprenne qu'il était passé par la relecture d'une Canado-Haïtienne, pour éviter selon son auteur "certains pièges de la représentation des personnes noires".

L'un des personnages de Que notre joie demeure de Kevin Lambert, paru en août aux éditions Le Nouvel Attila et en lice pour le Goncourt 2023, est d'origine haïtienne. Pour qu'il soit le plus crédible possible, le jeune romancier de 30 ans s'est attaché les services d'une universitaire et autrice d'origine haïtienne également, Chloé Savoie-Bernard. Il la qualifie d'"amie". Elle a été rémunérée.

Ce rôle est appelé "sensitivity reader" en anglais, traduit par "démineur éditorial" ou "lecteur sensible". Chez les éditeurs nord-américains, la pratique est devenue banale. Les maisons d'édition françaises les plus renommées, en revanche, quand elles y ont recours, ne le revendiquent pas, comme si cela risquait de leur coûter des lecteurs.

"Chloé s'est assurée que je ne dise pas trop de bêtises"

Pour Kevin Lambert, c'était de l'histoire ancienne: le roman est paru dès septembre 2022 au Canada, aux éditions Héliotrope. Mais les Français l'ont découvert grâce au Nouvel Attila, qui l'a révélé sur Instagram le 4 septembre, la veille de la parution de la première sélection du Goncourt.

Propos de l'auteur rapportés par l'éditeur: "Je peux toujours me tromper. Chloé s'est assurée que je ne dise pas trop de bêtises, que je ne tombe pas dans certains pièges de la représentation des personnes noires".

"En tant que Blanc"

Vendredi sur Radio Canada, il s'est expliqué plus en détail. "Ça m'a permis de ne pas écrire que le personnage rougissait, à un moment. Parce que j'écrivais ça en tant que Blanc, un peu nono..." (neuneu, en France).

La relectrice a aussi évoqué son travail, dans le quotidien montréalais La Presse jeudi. "J'ai posé des questions à Kevin, je lui ai fait des suggestions", a précisé Chloé Savoie-Bernard. "Pas seulement sur le personnage d'origine haïtienne, mais aussi sur la structure générale du texte".

En France, l'idée qu'il faille être d'une certaine couleur de peau pour juger de la justesse de certains passages de romans divise. Le prix Goncourt 2018, Nicolas Mathieu, auteur classé à gauche, la rejette vigoureusement.

"Faire de professionnels des sensibilités, d'experts des stéréotypes, de spécialistes de ce qui s'accepte et s'ose à un moment donné la boussole de notre travail, voilà qui nous laisse pour le moins circonspect", écrivait-il sur Instagram mercredi.

Au festival littéraire Le Livre sur la place de Nancy samedi, il n'a pas voulu alimenter la polémique. "J'ai eu des échanges avec Kevin", a-t-il déclaré à l'AFP. "Et il n'y a aucune animosité entre nous, bien au contraire".

Un jeu "risqué"

Le milieu de l'édition et des lettres, en privé, s'interrogeait surtout sur les motivations du Nouvel Attila quand il a mis en avant cette relecture. "C'est peut-être un jeu de l'éditeur!", disait à l'AFP l'un des concurrents, face à quoi l'un de ses confrères était sceptique: "Ils ont créé un 'bad buzz'. Si c'est un jeu, il est risqué". "Kevin Lambert va se faire sortir de la liste du Goncourt", pariait une autre éditrice.

Si le jury a préféré récemment se préserver des polémiques en écartant les livres qui en suscitaient, deux de ses membres ont affirmé au quotidien Le Monde que rien n'était joué.

"Cette controverse n'aura aucun impact sur notre choix du lauréat", a dit l'un de ses membres, Pierre Assouline. "Nicolas Mathieu devrait se contenter d'écrire des romans (...) Laissons cette polémique. Les chiens aboient, la caravane Goncourt passe!", a abondé le secrétaire de ce jury, Philippe Claudel.

Dider Decoin, président du Goncourt, a lui aussi réagi à l'occasion du festival Le Livre sur la place de Nancy, balayant une "polémique stupide":

"Quand on est un auteur, on a le droit de faire appel à qui on veut pour relire un texte", a-t-il déclaré, comme le rapporte Le Figaro.

La position de Nicolas Mathieu a suscité une certaine sympathie de ses collègues écrivains français. "Il faut se faire confiance en tant qu'écrivain. Se documenter bien sûr, mais écouter notre imagination", disait un autre romancier de la rentrée littéraire.

La première sélection du Goncourt comprend 16 titres. Elle sera réduite le 3 octobre, avant que la liste des quatre finalistes soit révélée le 25 octobre. Le prix sera décerné le 7 novembr, au restaurant Drouant à Paris, comme le veut la tradition.

Auteur: Internet

Info: BFMTV.com, B.P. avec AFP Le 09/09/2023

[ convenable médiatique ] [ wokisme ] [ sensibilité post-coloniale ] [ pouvoir sémantique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

covid-19

De façon concrète, dans nos vies, la "smart planet" sans contact - le monde-machine - a franchi des seuils en 2020 :

Bond en avant du commerce électronique et des livraisons à domicile. L’épidémie a augmenté de 183 milliards les dépenses dans l’e-commerce mondial. L’e-commerce représente désormais 13,4 % du commerce de détail en France, contre 9,8 % en 2019. Selon Romain Boisson, patron de Visa France, "l’e-commerce s’est ancré dans les habitudes de consommation des Français et s’impose désormais […] pour tous les commerçants, quelle que soit la taille de leur entreprise". Deliveroo vaut 7 milliards de dollars en bourse. Les grandes sociétés de transport/logistique (DHL, UPS, FedEx, etc.) ont réalisé un chiffre d’affaires de 300 milliards de dollars en 2020. Le chiffre d’affaires d’Amazon a augmenté de 38 % en 2020 pour atteindre 320 milliards d’euros. C’est à l’"Amazon academy" que l’État français, via la Banque publique d’investissement, confie la formation des PME pour leur mettre le pied à l’Internet. Nom du programme : l’Accélérateur du numérique.

Adoption du télétravail. Cinq millions de Français ont télétravaillé pendant le premier confinement et 60 % des salariés veulent continuer après la crise. Moins de locaux, plus de télécommunications. Le nombre d’abonnés à la fibre chez Orange a bondi de 50 % : "Jamais on n’a autant câblé les Français qu’en 2020". Boom des applications de visioconférence et autres "outils collaboratifs" en ligne. Microsoft Teams enregistre un record avec 44 millions d’utilisateurs quotidiens. Les ventes d’ordinateurs connaissent la plus forte croissance annuelle (+ 4,8 %) depuis dix ans dans le monde. Au tribunal administratif de Grenoble, "le tout numérique a amorti la baisse d’activité". De quoi tenir l’objectif des services publics "100 % dématérialisés" fixé par la plan "Action publique 2022".

Invasion du télé-enseignement. Invention des cours "en distanciel" y compris pour les apprentis, grâce au "learning management system". L’école de commerce de Grenoble organise ses "Portes ouvertes online" en janvier 2021. La ministre de l’Enseignement supérieur, Frédérique Vidal, voit dans l’épidémie "une opportunité de façonner l’université numérique de demain". Envol inespéré pour le "e-learning et les ed-tech", le plus profitable des "marchés porteurs" identifiés en février 2020 par le cabinet Roland Berger, avec 6000 milliards de dollars en 2018. Parmi les "verrous à lever", celui-ci déplorait "la complexité́ des processus d’accès au marché́ scolaire qui agit comme une barrière à l’entrée". Voilà un verrou forcé par le virus. Le moindre prétexte renvoie désormais les élèves derrière leur écran, comme l’ont constaté ceux des Yvelines, assignés "en distanciel" pour une chute de neige le 10 février 2021. #Restezchezvous est entré dans les mœurs.

Ruée sur les loisirs en ligne. 36 % de temps d’écran en plus par jour pour les Français, plus une heure de télé supplémentaire. Plus de 2,6 milliards de personnes utilisent quotidiennement Facebook, WhatsApp et Instagram, soit 15 % de plus que fin 201928. Netflix et le jeu vidéo, grands gagnants du confinement. Lequel a "accéléré le processus d’une culture de la sédentarité plus poussée, notamment la place des écrans", alerte David Thivel, membre du conseil scientifique de l’Observatoire national de l’activité́ physique et de la sédentarité́ (il y a des observatoires pour tout). Les Français ont pris en moyenne 3 kg en 2020.

Décollage de la télémédecine. 28 % de téléconsultations en avril 2020, contre 0,1 % avant la pandémie. 19 millions de téléconsultations remboursées par la Sécurité sociale en 2020. Les start up de la santé numérique (dites "healthtech") lèvent 8,2 milliards de dollars au premier trimestre 2020, un record30. Selon Stanislas Niox-Chateau, le patron de Doctolib, "une fois l’épidémie de coronavirus passée, entre 15 % et 20 % des consultations médicales se feront à distance en France".

[...]

Invasion de la monnaie virtuelle. Les Français délaissent le cash par peur de la contamination. Les retraits de liquide ont chuté de 50 % en volume pendant le premier confinement, au profit du paiement "sans contact" (dont l’Autorité bancaire européenne a relevé le plafond à 50 €), qui bondit de 65 %. Les réfractaires ont "sauté le pas, et il n’y aura pas de retour en arrière", selon Pierre-Antoine Vacheron, directeur général de Natixis Payments. Au fait, le nombre de distributeurs de billets diminue en France depuis 2015. Ça va s’accélérer. Avec l’e-commerce et le "click & collect", le consommateur paie désormais en ligne. "Les Français s’y habituent", constate le même expert. Ou plutôt, on y habitue les Français. On s’est vu refuser un chèque au motif qu’il faudrait toucher notre carte d’identité pour l’encaisser. [...]

Effet-cliquet : on ne revient pas en arrière quand les technologies ont imposé de nouvelles habitudes. L’offre a créé la demande. De réunions Zoom en concerts virtuels, de cours sur Internet en achats en ligne, de cyber-démarches administratives en téléconsultations médicales, nous devenons des Smartiens, cette espèce qui ne survit que connectée à la Machinerie générale. Voyez la gratitude des confinés connectés – "comment aurions-nous fait sans Internet ?" - révélant toute honte bue leur dépendance Si notre vie tient à un câble, la sélection technologique élimine ceux qui refusent ou n’ont pas accès à la connexion universelle. Seuls restent les adaptés, les connectés, vaccinés, livrés et monitorés par la Machine. Le petit commerce ne survit pas sans mise en ligne, c’est-à-dire sans supprimer ce qui fait le petit commerce. Il faut choisir : disparaître ou disparaître.

Auteur: PMO Pièces et main-d'oeuvre

Info: Dans "Le règne machinal", éditions Service compris, 2021, pages 65 à 70

[ transition technologique ] [ transformations ] [ conséquences ] [ accélération ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

gafam

"Beaucoup de ficelles invisibles dans la tech nous agitent comme des marionnettes."

Ancien ingénieur de Google, Tristan Harris dénonce les pratiques de son ancien employeur et des grands groupes de la Silicon Valley. Il exhorte les chefs d'États et citoyens à exercer un contre-pouvoir contre leur influence nocive. Cet ancien ingénieur employé de Google, spécialiste en éthique en technologies, alerte depuis plusieurs années le monde des technologies sur les dérives qu'il a contribué à créer. Avec un certain succès. Son initiative "déconnexionniste" Time Well Spent a fait de lui un speaker remarqué et invité par les PDG de la tech. Désormais, il vise les citoyens. À l'occasion de sa tournée européenne, des couloirs de Bruxelles à l'Elysée, en passant par le MAIF Social Club. Le Figaro l'a rencontré.

- Pourquoi êtes-vous parti en guerre contre les réseaux sociaux et les géants du Web?

- TH Ces entreprises sont devenues les acteurs les plus puissants au monde, plus que les États. Nous sommes 2 milliards à être sur Facebook, soit davantage de fidèles qu'en compte le christianisme. 1,5 milliard sur YouTube chaque mois, soit plus de fidèles qu'en compte l'Islam. Et à partir du moment où nous éteignons l'alarme de nos smartphones - que nous consultons en moyenne 150 fois par jour - nos pensées vont être perturbées par des pensées que nous n'avons pas choisies, mais que les entreprises technologiques nous soumettent. En ouvrant Instagram, on observe que ses amis se sont amusés sans vous. Cette idée ne vous serait jamais venue sans qu'un acteur des technologies ne l'ait faite advenir.

- En quoi est-ce si grave? Les réseaux sociaux finissent par construire une réalité sociale alternative. Cela pose des problèmes de santé publique, notamment chez les plus jeunes qui sont sans cesse soumis à des images de leurs amis montrés sous leur meilleur jour et ont une vision déformée de la normalité. Cela pose aussi des problèmes de polarisation: les réseaux sociaux ont tendance à mettre en avant les comportements extrêmes, ce qui pose un troisième problème, cette fois-ci démocratique, car cela influence l'opinion. La question relève enfin de l'antitrust: ces entreprises ont un pouvoir inégalable avec toutes les données qu'elles manipulent chaque jour. "Non seulement Facebook sait quelle photo de votre ex-petite amie vous regardez sur Instagram, mais aussi quels messages vous écrivez sur WhatsApp."

- Les concepteurs de ces technologies sont-ils conscients d'exercer un tel pouvoir?

- Non! Il y a beaucoup de personnes qui ont une conscience dans la Silicon Valley et s'inquiètent des conséquences de leur travail. Mais si on y réfléchit bien, quand on a entre 20 et 30 ans, qu'on est un jeune ingénieur qui n'a jamais rien fait d'autre que coder et qu'on débarque chez Google, on pense avant tout à toutes les choses incroyables que l'on peut réaliser avec son travail. Pas aux instabilités géopolitiques que ces outils peuvent permettre de créer. Les employés de ces grandes entreprises ne réalisent pas leur pouvoir.

- N'est-ce pas la faute d'une culture d'entreprise qui déresponsabilise ses employés? - Ces entreprises font en sorte que les employés n'aient pas une image "globale" de l'impact de leur travail. Je pense que des comparaisons historiques peuvent être faites avec des régimes autoritaires. J'ai beaucoup étudié le fonctionnement des cultes et j'y vois aussi des similitudes. Quand Facebook répète sans cesse cette devise, "nous aidons le monde à être plus connecté", cela devient performatif et on ne voit plus que cela.

- Les employés de Facebook sont payés très cher pour ne pas se poser de questions.

- De la même façon, ils ne parlent pas d'un problème d'addiction aux technologies mais d'"engagement". Et ils ne disent pas à leurs ingénieurs de concevoir des outils de manipulation des esprits mais des outils pour "augmenter l'engagement sur de la publicité ciblée", car aucun ne voudrait travailler pour eux sinon. Pour reprendre l'écrivain Upton Sinclair, vous ne pouvez pas demander à des gens de se poser des questions quand leur salaire dépend du fait de ne pas se les poser. Et les employés de Facebook sont payés très cher pour ne pas se poser de questions.

- N'avez-vous pas l'impression d'utiliser une rhétorique de la peur parfois exagérée à l'égard des technologies?

- Je suis d'accord avec ceux qui me critiquent pour défendre un modèle de la peur! (rires) Parce que fondamentalement, je m'intéresse à la question du pouvoir, et qu'il y a une sorte de vérité dérangeante dans la Silicon Valley. Plusieurs PDG comme Eric Schmidt (ex-Google) ou Mark Zuckerberg (Facebook) ont déclaré que la vie privée était morte. Aujourd'hui, avec une intelligence artificielle entraînée, je peux en effet établir votre profil psychologique en étudiant vos clics, vous identifier à travers votre géolocalisation dans moins de cinq lieux, mesurer votre taux de stress ou d'excitation avec la reconnaissance faciale. Nous allons vivre dans un monde où de plus en plus de technologies vont intercepter des signaux de ce que nous pensons avant même que nous n'ayons conscience de le penser, et nous manipuler.

- Avez-vous l'impression que vos idées sont entendues par le grand public?

- Les gens n'ont pas conscience de l'ampleur de ce que l'on peut déjà faire avec de la publicité ciblée. Il est facile de se dire que nous sommes informés ou éduqués, et que cela ne nous arrive pas à nous, plus malins que les autres. Je veux éveiller les consciences là-dessus: absolument tout le monde, sans exception, est influencé par des ressorts qu'il ne voit pas. Exactement comme dans les tours de magie.

- Comment cela fonctionne-t-il concrètement?

- "Absolument tout le monde, sans exception, est influencé par des ressorts qu'il ne voit pas". Il y a beaucoup de "dark patterns" dans les technologies, c'est-à-dire des ficelles invisibles qui nous agitent comme des marionnettes. Elles reposent sur la captation d'attention par les biais cognitifs, l'excitation... Par exemple, nous vérifions sans cesse les notifications des téléphones en espérant y voir leurs jolies couleurs vives, nous scrollons car il y a toujours de la nouveauté, nous regardons la prochaine vidéo YouTube car elle est bien suggérée...

- Imaginons maintenant que vous vouliez quitter Facebook: pour vous garder, Facebook pourrait envoyer une notification à l'un de vos amis qui a pris une photo de vous, et lui demander "Veux-tu taguer cette personne?". En général, cette question s'assortit d'un gros bouton bleu marqué "OUI" pour que l'ami clique dessus. Il suffit ensuite à Facebook de vous envoyer un mail pour vous dire "Tel ami vous a tagué sur telle photo" et cela vous incite à revenir. Toute l'industrie de la tech utilise ces ressorts.

- N'est-ce pas seulement une certaine élite qui peut savoir comment échapper à ce type de manipulation?

- Complètement, et c'est bien pour cela que nous voulons forcer les entreprises à changer directement leurs pratiques pour le plus grand nombre. Nous ne pouvons pas souhaiter un monde où seulement 1% de personnes savent comment paramétrer leur téléphone en noir&blanc pour ne plus être autant sollicité par les boutons rouges des notifications, ou savent comment régler leurs paramètres. Nous devons faire en sorte que le design de l'attention soit vertueux par défaut, que les modèles économiques de ces entreprises reposent moins sur le temps passé. Google vient de le faire et cela établit un précédent qui pourrait pousser Apple à faire de même.

- Peut-on vraiment avoir confiance quand ces entreprises prétendent nous guérir de l'addiction ou des manipulations qu'elles ont elles-mêmes créées ?"

- Pour moi, c'est le rôle de Facebook de veiller à ce qu'une élection ne soit pas manipulée, et le rôle de Google de restreindre notre addiction. Pour autant, nous ne devons pas les croire sur parole, car ils ont toujours un pouvoir considérable. Facebook est comme un prêtre qui écouterait les confessions de 2 milliards d'individus, sauf que la plupart ne savent même pas qu'ils passent à confesse! Non seulement ils savent quelle photo de votre ex-petite amie vous regardez sur Instagram, mais aussi quels messages vous écrivez sur WhatsApp. Avec leurs traceurs sur plus d'un tiers des sites internet, ils savent que vous songez à changer d'assureur avant même que vous ayez franchi le cap. Ils savent aussi ce que vous allez voter. Et ils vendent ce savoir à des marques pour qu'au confessionnal, on vous suggère telle ou telle action. Je ne dis pas que Facebook et son confessionnal virtuel ne devraient pas exister, mais je dis qu'il ne devrait pas avoir un modèle économique qui ait autant de pouvoir. L'Europe va sombrer si nous ne changeons pas ce système.

Auteur: Harris Tristan

Info: Interview d'Elisa Braun, le Figaro, 31/05/2018

[ big brother ] [ PNL ] [ culture de l'epic fail ] [ captage de l'attention ]

 

Commentaires: 0

homme-machine

Un philosophe sur la mort de la romance, les robots ChatGPT vulgaires et le sexe virtuel

Je m'inquiète des développements du web et de l'intelligence artificielle. Quelques exemples au sujet desquels il faut se poser des questions..

L'explosion des nouveaux médias (Facebook, Google, Instagram, TikTok, etc.) dans l'Occident "démocratique" a radicalement modifié le rapport entre espace public et espace privé : un nouveau tiers espace a émergé qui efface le clivage entre public et privé.

Ce nouvel espace est public, accessible dans le monde entier, mais il fonctionne en même temps pour les échanges de messages privés. C'est tout sauf incontrôlé : il existe des algorithmes qui non seulement le censurent et empêchent certains messages de s'y infiltrer, mais manipulent également la façon dont les messages attirent notre attention.

Les plateformes technologiques font face à de nouveaux défis

Il s'agit ici de dépasser l'alternative "Chine ou Elon Musk" : ou le contrôle opaque de l'État, ou la "liberté" de faire ce qu'on veut, tout ceci pareillement manipulé par des algorithmes opaques. Ce que la Chine et Musk ont ​​en commun, c'est un contrôle algorithmique opaque.

Une équipe d'entrepreneurs israéliens dont le nom de code est "Team Jorge" "affirme avoir truqué plus de 30 élections dans le monde par le piratage, le sabotage et la désinformation automatisée sur les réseaux sociaux. La "Team Jorge" est dirigée par Tal Hanan, 50 ans, ancien commandant des opérations spéciales israéliennes. Les méthodes et techniques décrites par "Team Jorge" posent de nouveaux défis aux grandes plateformes technologiques qui luttent depuis des années pour empêcher les acteurs néfastes de répandre des mensonges ou de violer la sécurité de leurs plateformes. L'existence d'un marché privé mondial pour la désinformation ciblée sur les élections sonnera également l'alarme dans les démocraties du monde entier.

Tout cela est plus ou moins de notoriété publique maintenant, du moins depuis le scandale de Cambridge Analytica (dont l'implication dans les élections américaines de 2016 a joué un rôle déterminant dans la victoire de Trump). Pour aggraver les choses, la gamme de nouveaux algorithmes devrait également inclure l'explosion de programmes qui rendent l'échange de visages et d'autres techniques de deepfake facilement accessibles.

Bien sûr, les plus populaires sont les algorithmes qui permutent les visages des célébrités sur les corps des actrices porno dans les films pour adultes : Les outils nécessaires pour créer ces vidéos porno "maison" mettant en vedette les actrices et pop stars préférées d'Hollywood sont facilement disponibles et simples à utiliser. Cela signifie que même ceux qui n'ont aucune compétence en informatique et peu de connaissances techniques peuvent créer ces films.

Les films porno Deepfake sont faciles à créer. La s(t)imulation sexuelle parfaite.

Les visages des actrices hardcore peuvent être échangés non seulement par des stars de la pop, mais aussi par leurs proches - le processus est impressionnant de par sa simplicité : "Vous pouvez transformer n'importe qui en star du porno en utilisant la technologie deepfake pour remplacer le visage de la personne échangé contre une vidéo adulte. Il suffit de l'image et d'appuyer sur un bouton". Malheureusement, la plupart du temps, les deepfakes sont utilisés pour créer de la pornographie mettant en scène des femmes, pour qui cela a un effet dévastateur. "Entre 90 et 95 % de toutes les vidéos deepfake en ligne sont de la pornographie non consensuelle, et environ 90 % d'entre elles sont des femmes."

Et si vous voulez que les voix correspondent également aux visages échangés, utilisez la voix Voice AI pour créer "des recréations hyperréalistes qui ressemblent à la vraie personne". Bien sûr, le raccourci incestueux ultime ici serait d'échanger mon propre visage et celui de ma femme ou de mon partenaire dans une vidéo pour adultes et d'ajouter nos clones de voix aux enregistrements afin que nous puissions simplement nous asseoir confortablement, boire un verre et regarder notre sexe passionné.

Le chatbot génère des textes incroyablement clairs et nuancés

Mais pourquoi devrions-nous nous limiter au sexe ? Que diriez-vous d'embarrasser nos ennemis avec des vidéos d'échange de visage d'eux faisant quelque chose de grossier ou de criminel ? Et pour ne rien arranger, on peut ajouter à tout ceci des chatbots (programmes informatiques capables d'avoir une conversation avec un utilisateur en langage naturel, de comprendre ses intentions et de répondre en fonction de règles et de données prédéterminées). Récemment, leurs performances ont explosé.

Quand Antony Aumann, professeur de philosophie à la Northern Michigan University, a évalué des essais pour son cours sur les religions du monde le mois dernier, il a lu un essai qui, selon lui, était de loin "le meilleur de la classe". Il a examiné la moralité de l'interdiction de la burqa avec des paragraphes clairs, des exemples appropriés et des arguments solides. Aumann a demandé à son élève s'il avait écrit lui-même l'essai; l'étudiant a admis utiliser ChatGPT, un chatbot qui fournit des informations, explique des concepts et génère des idées dans des phrases simples - de fait dans ce cas a écrit l'essai.

Toutes choses qui font partie de l'arrivée en temps réel d' une nouvelle vague de technologie connue sous le nom d'intelligence artificielle générative. ChatGPT, sorti en novembre 2022 par la société OpenAI, est à la pointe de ce développement. Générant un texte incroyablement clair et nuancé en réponse à de courtes invites, ce chatbot est utilisé par les gens pour écrire des lettres d'amour, de la poésie, de la fanfiction - et des travaux scolaires.

L'intelligence artificielle peut se montrer effrayante

Pas étonnant que les universités et les lycées réagissent dans la panique et n'autorisent dans certains cas que les examens oraux. Entre autres questions, il en est une qui mérite attention : comment un chatbot doit-il réagir lorsque l'interlocuteur humain tient des propos sexistes et racistes agressifs, présente ses fantasmes sexuels dérangeants et utilise régulièrement un langage grossier ?

Microsoft a reconnu que certaines sessions de chat prolongées utilisant son nouvel outil de chat Bing peuvent fournir des réponses qui ne "correspondent pas à notre tonalité de message prévu". Microsoft a également déclaré que dans certains cas, la fonctionnalité de chat tente de "répondre ou de refléter le ton sur lequel il lui est demandé de répondre".

Bref, le problème se pose lorsque le diaogue humain avec un chatbot utilise un langage grossier ou tient des propos racistes et sexistes flagrants, et que le chatbot programmé pour être au même niveau que les questions qui lui sont adressées répond, sur le même ton. La réponse évidente est une forme de réglementation qui fixe des limites claires, c'est-à-dire la censure. Mais qui déterminera jusqu'où cette censure doit aller ? Faut-il également interdire les positions politiques que certains trouvent "offensantes" ? Est-ce que la solidarité avec les Palestiniens en Cisjordanie ou les affirmations selon lesquelles Israël est un État d'apartheid (comme Jimmy Carter l'a dit dans le titre de son livre) seront bloquées comme "antisémites" ?

La romance est presque morte    

En raison de ce clivage minimal, constitutif d'un sujet, le sujet est pour Lacan divisé ou "verrouillé". Dans la scène imaginée, je présente (ou plutôt mon double en tant que personne) à un professeur, via le zoom, un travail de séminaire rédigé par un chatbot, mais le professeur aussi n'est présent qu'en tant que personne, sa voix est générée artificiellement, et mon séminaire est noté par un algorithme. Il y a une dizaine d'années, The Guardian me demanda si le romantisme était mort aujourd'hui - voici ma réponse.

"Le romantisme n'est peut-être pas encore tout à fait mort, mais sa mort imminente se manifeste par des gadgets-objets qui promettent de fournir un plaisir excessif, mais qui ne font en fait que reproduire le manque lui-même. La dernière mode est le Stamina Training Unit, l'équivalent du vibromasseur : un appareil de masturbation qui ressemble à une lampe à piles ( afin que nous ne soyons pas gênés de le transporter avec nous). On insère son pénis en érection dans l'ouverture située à l'extrémité, on appuie sur le bouton et l'appareil vibre jusqu'à la satisfaction... Comment faire face à ce beau nouveau monde qui sape les fondements de notre vie intime ? La solution ultime serait bien sûr de mettre un vibromasseur dans cet appareil pour l'entraînement à l'endurance, de les allumer tous les deux et de laisser tout le plaisir à ce couple idéal, tandis que nous, les deux vrais partenaires humains, serions assis à une table à proximité, en train de boire du thé et de savourer tranquillement le fait d'avoir accompli notre devoir de jouissance sans trop d'efforts".

Ce qui reste de nous n'est qu'un cogito vide

Nous pouvons maintenant imaginer la même externalisation d'autres activités telles que les séminaires universitaires et les examens. Dans une scène idéale, tout le processus de rédaction de mon séminaire et des examens par le professeur se fait par interaction numérique, de sorte qu'à la fin, sans rien faire, nous ne faisons que valider les résultats.

Pendant ce temps, je fais l'amour avec ma maîtresse ... mais encore une fois un sexe délocalisé grâce à son vibromasseur qui pénètre dans mon appareil d'entraînement à l'endurance, alors que nous sommes tous les deux simplement assis à une table à proximité et, afin de nous amuser encore plus, nous voyons sur un écran de télévision un simulacre nous montrant tous les deux en train de faire l'amour ... et bien sûr, tout cela est contrôlé et réglé par l'équipe Jorge.

Ce qui reste de nous deux n'est qu'un cogito (du latin "je pense") vide, dominé par plusieurs versions de ce que Descartes appelait le "génie malin". Et c'est peut-être là notre dilemme actuel : nous sommes incapables de franchir l'étape suivante décrite par Descartes et de nous fier à une forme véridique et stable d'un grand Autre divin, nous sommes les "enfants d'un dieu moindre" (pour reprendre le titre d'une pièce de théâtre et d'un film), pris à jamais dans la multiplicité contradictoire d'esprits mauvais et trompeurs.

Auteur: Zizek Slavoj

Info: Résumé par le Berliner Zeitung ici : https://www.berliner-zeitung.de/kultur-vergnuegen/slavoj-zizek-ueber-den-tod-der-romantik-vulgaere-chatgpt-bots-und-unechten-sex-li.321649

[ dénaturation ]

 

Commentaires: 0

Ajouté à la BD par miguel

big brother consumériste

Nulle part où se cacher : Les collecteurs de données sont venus pour capter votre vie privée - et ils l'ont trouvée

La manière dont vos données sont stockées et partagées évolue et votre activité en ligne peut être utilisée pour vous catégoriser d'une manière qui modifie radicalement votre vie. Il existe des moyens de reprendre le contrôle.

Un vendredi de 2021, je suis entré dans un hôtel d'Exeter, au Royaume-Uni, à 17:57:35. Le lendemain matin, j'ai fait 9 minutes de route pour me rendre à l'hôpital le plus proche. J'y suis resté trois jours. Le trajet de retour, qui dure normalement 1 heure 15 minutes, a duré 1 heure 40 minutes. La raison de cette lenteur : mon tout nouveau bébé dormait à l'arrière.

Ce ne sont pas les détails d'un journal. Il s'agit plutôt de ce que Google sait de la naissance de ma fille, sur la base de mon seul historique de localisation.

Un aperçu des données de ce week-end révèle que ce n'est pas tout ce que les entreprises savent de moi. Netflix se souvient que j'ai regardé toute une série d'émissions de bien-être, dont Gilmore Girls et How to Lose a Guy in 10 Days (Comment perdre un homme en 10 jours). Instagram a enregistré que j'ai "aimé" un post sur l'induction du travail, puis que je ne me suis pas reconnectée pendant une semaine.

Et alors ? Nous savons tous maintenant que nous sommes suivis en ligne et que les données collectées sur nous sont à la fois granulaires et constantes. Peut-être aimez-vous que Netflix et Instagram connaissent si bien vos goûts en matière de cinéma et de mode.

Mais un nombre croissant d'enquêtes et de poursuites judiciaires révèlent un nouveau paysage du suivi en ligne dans lequel la portée des entreprises qui collectent des données est plus insidieuse que beaucoup d'entre nous ne le pensent. En y regardant de plus près, j'ai découvert que mes données personnelles pouvaient avoir une incidence sur tout, depuis mes perspectives d'emploi et mes demandes de prêt jusqu'à mon accès aux soins de santé. En d'autres termes, elles peuvent façonner ma vie quotidienne d'une manière dont je n'avais pas conscience. "Le problème est énorme et il y a toujours de nouvelles horreurs", déclare Reuben Binns, de l'université d'Oxford.

On pourrait vous pardonner de penser qu'avec l'introduction d'une législation comme le règlement général sur la protection des données (RGPD) - des règles de l'Union européenne mises en œuvre en 2018 qui donnent aux gens un meilleur accès aux données que les entreprises détiennent sur eux et limitent ce que les entreprises peuvent en faire - la confidentialité des données n'est plus un vrai problème. Vous pouvez toujours refuser les cookies si vous ne voulez pas être suivi, n'est-ce pas ? Mais lorsque je dis cela à Pam Dixon, du groupe de recherche à but non lucratif World Privacy Forum, elle se met à rire d'incrédulité. "Tu y crois vraiment ?" me dit-elle.

Les gratteurs de données

Des centaines d'amendes ont été infligées pour violation du GDPR, notamment à Google, British Airways et Amazon. Mais les experts en données affirment qu'il ne s'agit là que de la partie émergée de l'iceberg. Une étude réalisée l'année dernière par David Basin de l'ETH Zurich, en Suisse, a révélé que 95 % des sites web pourraient enfreindre les règles du GDPR. Même l'objectif de la législation visant à faciliter la compréhension des données que nous acceptons de fournir n'a pas été atteint. Depuis l'entrée en vigueur de la législation, les recherches montrent que les accords de confidentialité sont devenus plus compliqués, rein de moins. Et si vous pensiez que les bloqueurs de publicité et les réseaux privés virtuels (VPN) - qui masquent l'adresse IP de votre ordinateur - vous protégeaient, détrompez-vous. Bon nombre de ces services vendent également vos données.

Nous commençons à peine à saisir l'ampleur et la complexité du paysage de la traque en ligne. Quelques grands noms - Google, Meta, Amazon et Microsoft - détiennent l'essentiel du pouvoir, explique Isabel Wagner, professeur associé de cybersécurité à l'université de Bâle, en Suisse. Mais derrière ces grands acteurs, un écosystème diversifié de milliers, voire de millions, d'acheteurs, de vendeurs, de serveurs, de traqueurs et d'analyseurs partagent nos données personnelles.

Qu'est-ce que tout cela signifie pour l'utilisateur lambda que je suis ? Pour le savoir, je me suis rendu chez HestiaLabs à Lausanne, en Suisse, une start-up fondée par Paul-Olivier Dehaye, mathématicien et lanceur d'alerte clé dans le scandale de l'utilisation des données de Facebook par la société de conseil politique Cambridge Analytica. Cette société a utilisé des données personnelles pour influencer l'élection de Donald Trump à la présidence des États-Unis en 2016. L'enquête de Dehaye sur Cambridge Analytica a montré de manière frappante à quel point l'influence des entreprises qui achètent et vendent des données est profonde. Il a créé HestiaLabs pour changer cette situation.

(Photo : Votre téléphone suit votre position même si les données mobiles sont désactivées)

Avant d'arriver, j'ai demandé mes données personnelles à diverses entreprises, un processus plus compliqué qu'il ne devrait l'être à l'ère du RGPD. Je rencontre Charles Foucault-Dumas, le chef de projet de HestiaLabs, au siège de l'entreprise - un modeste espace de co-working situé en face de la gare de Lausanne. Nous nous asseyons et téléchargeons mes fichiers dans son portail sur mesure.

Mes données s'étalent devant moi, visualisées sous la forme d'une carte de tous les endroits où je suis allé, de tous les posts que j'ai aimés et de toutes les applications qui ont contacté un annonceur. Dans les lieux que je fréquente régulièrement, comme la crèche de ma fille, des centaines de points de données se transforment en taches semblables à de la peinture. À l'adresse de mon domicile, il y a une énorme cible impossible à manquer. C'est fascinant. Et un peu terrifiant.

L'une des plus grandes surprises est de savoir quelles applications de mon téléphone contactent des entreprises tierces en mon nom. Au cours de la semaine écoulée, c'est un navigateur web que j'utilise parce qu'il se décrit comme "le respect de la vie privée avant tout" qui a été le plus grand contrevenant, en contactant 29 entreprises. Mais pratiquement toutes les applications de mon téléphone, du service d'épicerie au bloc-notes virtuel, étaient occupées à contacter d'autres entreprises pendant que je vaquais à mes occupations.

En règle générale, une entreprise qui souhaite vendre un produit ou un service s'adresse à une agence de publicité, qui se met en relation avec des plates-formes chargées de la diffusion des publicités, qui utilisent des échanges publicitaires, lesquels sont reliés à des plates-formes d'approvisionnement, qui placent les publicités sur les sites web des éditeurs. Chaque fois que vous ouvrez un site web ou que vous survolez momentanément un message sur un média social, cette machine - dont la valeur est estimée à 150 milliards de livres sterling par an - se met en marche.

Que partageaient exactement ces entreprises à mon sujet ? Pour le savoir, il faudrait que je fasse des demandes auprès de chacune d'entre elles. Et même avec celles que j'ai contactées avec l'aide de HestiaLabs, ce n'est pas toujours clair.

Prenons l'exemple d'Instagram. Il m'a fourni des données montrant qu'il a enregistré 333 "intérêts" en mon nom. Certains d'entre eux sont très éloignés de la réalité : le rugby, le festival Burning Man, la promotion immobilière, et même "femme à chats". Lecteur, je n'ai jamais eu de chat. Mais d'autres sont plus précis, et un certain nombre d'entre eux, sans surprise, sont liés au fait que je suis devenue parent, qu'il s'agisse de marques telles que Huggies et Peppa Pig ou de sujets tels que les berceaux et le sevrage pour bébés.

Je me demande comment ces données ont pu affecter non seulement mes achats, mais aussi la vie de ma fille. Son amour pour le cochon rose de dessin animé est-il vraiment organique, ou ces vidéos nous ont-elles été "servies" en raison des informations qu'Instagram a transmises à mon sujet ? Est-ce que les posts sur le sevrage dirigé par les bébés se sont retrouvés partout dans mon fil d'actualité - et ont donc influencé la façon dont ma fille a été initiée à la nourriture - par hasard, ou parce que j'avais été ciblée ? Je n'ai pas accès à cette chaîne de causes et d'effets, et je ne sais pas non plus comment ces divers "intérêts" ont pu me catégoriser pour d'éventuels spécialistes du marketing.

Il est pratiquement impossible de démêler l'écheveau complexe des transactions de données dans l'ombre. Les données personnelles sont souvent reproduites, divisées, puis introduites dans des algorithmes et des systèmes d'apprentissage automatique. En conséquence, explique M. Dixon, même avec une législation comme le GDPR, nous n'avons pas accès à toutes nos données personnelles. "Nous avons affaire à deux strates de données. Il y a celles qui peuvent être trouvées", dit-elle. "Mais il y a une autre strate que vous ne pouvez pas voir, que vous n'avez pas le droit légal de voir - aucun d'entre nous ne l'a."

Profilage personnel

Des rapports récents donnent un aperçu de la situation. En juin, une enquête de The Markup a révélé que ce type de données cachées est utilisé par les publicitaires pour nous classer en fonction de nos convictions politiques, de notre état de santé et de notre profil psychologique. Pourrais-je être considérée comme une "mère accro au portable", une "indulgente", une "facilement dégonflée" ou une "éveillée" ? Je n'en ai aucune idée, mais je sais qu'il s'agit là de catégories utilisées par les plateformes publicitaires en ligne.

Il est troublant de penser que je suis stéréotypée d'une manière inconnue. Une autre partie de moi se demande si cela a vraiment de l'importance. Je comprends l'intérêt d'une publicité qui tient compte de mes préférences, ou de l'ouverture de mon application de cartographie qui met en évidence des restaurants et des musées qui pourraient m'intéresser ou que j'ai déjà visités. Mais croyez-moi, il y a peu de façons de faire grimacer un expert en données plus rapidement qu'avec la désinvolture de ce compromis.

D'une part, l'utilisation de ces données va bien au-delà de la vente de publicité, explique M. Dixon. Quelque chose d'apparemment anodin comme le fait de faire des achats dans des magasins discount (signe d'un revenu inférieur) ou d'acheter des articles de sport (signe que vous faites de l'exercice) peut avoir une incidence sur tout, de l'attrait de votre candidature à l'université au montant de votre assurance maladie. "Il ne s'agit pas d'une simple publicité", précise M. Dixon. "Il s'agit de la vie réelle.

Une législation récente aux États-Unis a contraint certaines de ces entreprises à entrer dans la lumière. Le Vermont's 2018 Data Broker Act, par exemple, a révélé que les courtiers en données enregistrés dans l'État - mais qui sont également actifs ailleurs - vendent des informations personnelles à des propriétaires et des employeurs potentiels, souvent par l'intermédiaire de tierces parties. En juillet, le Bureau américain de protection financière des consommateurs a appris que cette deuxième strate cachée de données comprenait également des informations utilisées pour établir un "score de consommation", employé de la même manière qu'un score de crédit. "Les choses que vous avez faites, les sites web que vous avez visités, les applications que vous utilisez, tout cela peut alimenter des services qui vérifient si vous êtes un locataire convenable ou décident des conditions à vous offrir pour un prêt ou une hypothèque", explique M. Binns.

À HestiaLabs, je me rends compte que j'ai moi aussi été concrètement affectée, non seulement par les publicités que je vois, mais aussi par la façon dont les algorithmes ont digéré mes données. Dans les "inférences" de LinkedIn, je suis identifiée à la fois comme "n'étant pas un leader humain" et "n'étant pas un leader senior". Et ce, bien que j'aie dirigé une équipe de 20 personnes à la BBC et que j'aie été rédacteur en chef de plusieurs sites de la BBC auparavant - des informations que j'ai moi-même introduites dans LinkedIn. Comment cela peut-il affecter mes opportunités de carrière ? Lorsque j'ai posé la question à LinkedIn, un porte-parole m'a répondu que ces déductions n'étaient pas utilisées "de quelque manière que ce soit pour informer les suggestions de recherche d'emploi".

Malgré cela, nous savons, grâce à des poursuites judiciaires, que des données ont été utilisées pour exclure les femmes des annonces d'emploi dans le secteur de la technologie sur Facebook. En conséquence, le propriétaire de la plateforme, Meta, a cessé d'offrir cette option aux annonceurs en 2019. Mais les experts en données affirment qu'il existe de nombreuses solutions de contournement, comme le fait de ne cibler que les personnes ayant des intérêts stéréotypés masculins. "Ces préjudices ne sont pas visibles pour les utilisateurs individuels à ce moment-là. Ils sont souvent très abstraits et peuvent se produire longtemps après", explique M. Wagner.

À mesure que les données collectées sur notre vie quotidienne prolifèrent, la liste des préjudices signalés par les journaux ne cesse de s'allonger. Des applications de suivi de l'ovulation - ainsi que des messages textuels, des courriels et des recherches sur le web - ont été utilisés pour poursuivre des femmes ayant avorté aux États-Unis depuis que l'arrêt Roe v Wade a été annulé l'année dernière. Des prêtres ont été démasqués pour avoir utilisé l'application de rencontres gay Grindr. Un officier militaire russe a même été traqué et tué lors de sa course matinale, prétendument grâce à des données accessibles au public provenant de l'application de fitness Strava. La protection des données est censée prévenir bon nombre de ces préjudices. "Mais il y a manifestement une énorme lacune dans l'application de la loi", déclare M. Binns.

Le problème réside en partie d'un manque de transparence. De nombreuses entreprises s'orientent vers des modèles "préservant la vie privée", qui divisent les points de données d'un utilisateur individuel et les dispersent sur de nombreux serveurs informatiques, ou les cryptent localement. Paradoxalement, il est alors plus difficile d'accéder à ses propres données et d'essayer de comprendre comment elles ont été utilisées.

Pour sa part, M. Dehaye, de HestiaLabs, est convaincu que ces entreprises peuvent et doivent nous rendre le contrôle. "Si vous allez consulter un site web en ce moment même, en quelques centaines de millisecondes, de nombreux acteurs sauront qui vous êtes et sur quel site vous avez mis des chaussures dans un panier d'achat il y a deux semaines. Lorsque l'objectif est de vous montrer une publicité pourrie, ils sont en mesure de résoudre tous ces problèmes", explique-t-il. Mais lorsque vous faites une demande de protection de la vie privée, ils se disent : "Oh, merde, comment on fait ça ?".

Il ajoute : "Mais il y a un moyen d'utiliser cette force du capitalisme qui a résolu un problème dans une industrie de plusieurs milliards de dollars pour vous - pas pour eux".

J'espère qu'il a raison. En marchant dans Lausanne après avoir quitté HestiaLabs, je vois un homme qui s'attarde devant un magasin de couteaux, son téléphone rangé dans sa poche. Une femme élégante porte un sac Zara dans une main, son téléphone dans l'autre. Un homme devant le poste de police parle avec enthousiasme dans son appareil.

Pour moi, et probablement pour eux, ce sont des moments brefs et oubliables. Mais pour les entreprises qui récoltent les données, ce sont des opportunités. Ce sont des signes de dollars. Et ce sont des points de données qui ne disparaîtront peut-être jamais.

Reprendre le contrôle

Grâce aux conseils de M. Dehaye et des autres experts que j'ai interrogés, lorsque je rentre chez moi, je vérifie mes applications et je supprime celles que je n'utilise pas. Je supprime également certaines de celles que j'utilise mais qui sont particulièrement désireuses de contacter des entreprises, en prévoyant de ne les utiliser que sur mon ordinateur portable. (J'ai utilisé une plateforme appelée TC Slim pour me dire quelles entreprises mes applications contactent). J'installe également un nouveau navigateur qui (semble-t-il) accorde la priorité à la protection de la vie privée. Selon M. Wagner, les applications et les navigateurs open source et à but non lucratif peuvent constituer des choix plus sûrs, car ils ne sont guère incités à collecter vos données.

Je commence également à éteindre mon téléphone plus souvent lorsque je ne l'utilise pas. En effet, votre téléphone suit généralement votre position même lorsque les données mobiles et le Wi-Fi sont désactivés ou que le mode avion est activé. De plus, en me connectant à mes préférences Google, je refuse d'enregistrer l'historique de mes positions, même si la nostalgie - pour l'instant - m'empêche de demander que toutes mes données antérieures soient supprimées.

Nous pouvons également réinitialiser notre relation avec le suivi en ligne en changeant notre façon de payer, explique Mme Dixon. Elle suggère d'utiliser plusieurs cartes de crédit et d'être "très prudent" quant au portefeuille numérique que nous utilisons. Pour les achats susceptibles de créer un signal "négatif", comme ceux effectués dans un magasin discount, il est préférable d'utiliser de l'argent liquide, si possible. M. Dixon conseille également de ne pas utiliser d'applications ou de sites web liés à la santé, si possible. "Ce n'est tout simplement pas un espace clair et sûr", dit-elle.

En réalité, quelles que soient les mesures que vous prenez, les entreprises trouveront toujours de nouveaux moyens de contourner le problème. "C'est un jeu où l'on ne peut que perdre", affirme M. Dehaye. C'est pourquoi la solution ne dépend pas des individus. "Il s'agit d'un véritable changement de société.

En réunissant suffisamment de voix individuelles, M. Dehaye pense que nous pouvons changer le système - et que tout commence par le fait que vous demandiez vos données. Dites aux entreprises : "Si vous vous dérobez, notre confiance est perdue"", déclare-t-il. "Et dans ce monde de données, si les gens ne font pas confiance à votre entreprise, vous êtes mort.

Auteur: Ruggeri Amanda

Info: https://blog.shiningscience.com/2023/08/nowhere-to-hide-data-harvesters-came.html, 26 août 2023

[ idiosyncrasie numérique ] [ capitalisme de surveillance ] [ internet marchand ]

 

Commentaires: 0

Ajouté à la BD par miguel