Internet et manipulation: les visions glaçantes de Tristan Harris

Sommes-nous devenus de simples marionnettes? 

Ex-ingénieur chez Google, chercheur en éthique et en «persuasion humaine», l’Américain lance d’angoissantes alertes sur les méthodes des géants du net.

Pour quiconque suit l’actualité chamboulée du monde de la tech, Tristan Harris n’est pas un inconnu. Ingénieur pour Apple et Google, chez qui il a étudié en profondeur les questions de l’éthique et de la «persuasion humaine», l’Américain est désormais l’un des plus efficaces porte-voix de celles et ceux s’inquiétant des méthodes et dark patterns mis en place par les GAFAM pour manipuler les esprits.

Très présent dans le débat grandissant sur la responsabilité des géants du net envers leurs utilisateurs et utilisatrices, Harris a cofondé le Center For Humane Technology, une ONG dont l’objectif affiché est de «renverser le déclassement humain» («human downgrading», en version originale) et de «réaligner la technologie avec l’humanité».

Cette question de la manipulation généralisée des cerveaux fait actuellement l’objet d’une audition au Sénat américain, où certain·es élu·es aimeraient comprendre les choses –avant éventuellement de les reprendre en main en légiférant.

Dépendance et double numérique

Comme d’autres spécialistes de la question, Rashida Richardson (AI Now Institute), Maggie Stanphill (Google) et Stephen Wolfram (Wolfram Research), Tristan Harris a été invité à donner son avis par la commission sénatoriale.

Exemples édifiants à l’appui, il a dessiné un résumé glaçant des coulisses de notre navigation en ligne, et de la manière dont elle est influencée par des méthodes, designs et algorithmes dont nous ignorons tout lorsque nous sautons innocemment d’une page à une autre sur internet, quand nous publions un statut sur Facebook ou quand nous rafraîchissons notre fil Twitter.

«Ça commence avec le “pull to refresh” pour rafraîchir son fil d’actualité», a expliqué Harris, repris par Gizmodo, au Sénat. «Ça marche comme une machine à sous, avec des capacités d’addiction similaires à celles qui accrochent les joueurs à Las Vegas.» Shoot de dopamine après shoot de dopamine, récompense après récompense, une dépendance à l’attention que nous portent les autres, via les likes ou le nombre de followers notamment, s’installe chez les utilisateurs de réseaux sociaux.

Harris a également de nouveau présenté son effrayante théorie de «l’avatar numérique»: un double algorithmique dont chacun·e disposerait, quelque part sur les serveurs anonymes des grosses plateformes, et qui permettrait aux géants du net de nous connaître mieux que nous nous connaissons nous-mêmes, donc de manipuler nos désirs, actions et réactions.

Chaque terme d’outrage moral ajouté à un tweet augmentait le taux de retweets de 17%. Autrement dit, la polarisation de nos sociétés fait partie du business model.

TRISTAN HARRIS, LORS DE SON AUDITION DEVANT LE SÉNAT AMÉRICAIN

C’est par exemple ainsi que nous serions naturellement dirigé·es vers des contenus outrageants: ce sont ceux, expose Harris, qui provoquent le plus d’engagement, le nerf fondamental de la guerre pour l’attention. «Une étude a montré que chaque terme d’outrage moral ajouté à un tweet augmentait le taux de retweets de 17%. Autrement dit, la polarisation de nos sociétés fait partie du business model.»

Même chose pour YouTube, qui tire 70% de son trafic des recommandations que son algorithme contestable présente aux internautes –comme cela a été récemment démontré, celles-ci les poussent souvent vers des vidéos de plus en plus trash, outrageantes, conspirationnistes, créant même un terrain de jeu idéal pour les pédophiles.

Dégoûté·e, vous désirez quitter Facebook? Tristan Harris détaille la manière dont la plateforme de Mark Zuckerberg tente de vous en dissuader: elle vous demande de confirmer votre départ en faisant apparaître les visages des cinq relations qui risquent de vous manquer le plus. Le tout calculé, là encore, par un savant algorithme.

L’audition de Tristan Harris et de ses camarades devant le Sénat américain.

Les machines nous connaissent par cœur

Cette science algorithmique, comme celle de l’intelligence artificielle, progresse à grande vitesse. «Sans même avoir accès à vos données, je peux prédire de plus en plus de choses à propos de vous en utilisant l’IA», a assuré Harris à son auditoire.

«Un récent article expliquait qu’on pouvait déterminer les mêmes cinq grands traits de personnalité d’un individu que Cambridge Analytica, sans même avoir accès à vos données personnelles. Une simple étude du mouvement de votre souris et de la manière dont vous cliquez suffit.»

Sombre, volontairement anxiogène mais pas totalement irréaliste, le tableau dépeint par Tristan Harris a été suffisamment inquiétant pour faire dire à John Tester, sénateur du Montana, qu’il «sera probablement mort et enterré, et heureux de l’être, quand toute cette merde prendra toute son ampleur».

À moins bien sûr, si cela est encore possible, que les responsables politiques n’imposent des règles contraignantes aux acteurs du marché de la tech. Ou que les utilisateurs et utilisatrices, lassées de ces influences invisibles et de leurs conséquences sur leur libre arbitre, ne décident de reprendre un contrôle plus conscient de leur vie, poussant alors les géants du net à adapter leurs méthodes.

Source: Korii

Publicités

There are 3 comments

  1. Gain Michel

    La 5G débarque déjà, et des milliards de puces RFID sont prêtes et opérationnelles ! De plus, en Finlande, il parle déjà de la 6G…préparez vous au four à micro ondes géant qui brûlera les neurones au fur et à mesure…que la Paix et la Justice du Seigneur Jésus Christ soient sur vous, Véritables Frères en Christ, car rappelez vous nulle part ou se cacher…!…

    J'aime

  2. J-Marc DUFOUR

    A nous d’être vigilants et de Savoir contrôler le temps que nous passons devant ce petit écran.
    et de ne pas nous laisser berner.

    J'aime

Commentaires fermés