L'Union Blog

L’UNION avec Sébastien Goffin à propos des algorithmes

By: Diana - 15 juin 2022 - 0

Les algorithmes, une bonne chose pour le grand public ?

Quels sont les dangers et à contrario les opportunités des algorithmes? Représentent-ils une menace pour notre privée ? Se dirige-t-on vers toujours plus d’algorithmes ? Sébastien Goffin, consultant digital, nous répond.

 

 

Qu’est-ce qu’un algorithme ?

Un algorithme est un ensemble de règles opératoires à mettre en place pour atteindre un objectif. Prenons un exemple : lorsque vous utilisez votre carte de crédit pour un achat physique, un algorithme va vérifier si vous êtes autorisé à utiliser cette carte. Vont être pris en compte : votre solde, la récence de votre dernier achat, le lieu de votre dernière transaction… Si une dépense est effectuée en Europe et une seconde aux États-Unis 45 minutes plus tard, l’utilisation va être bloquée car l’algorithme va détecter une fraude (impossible d’effectuer un achat physique dans ces deux parties du monde à 45 minutes d’intervalle). C’est l’algorithme qui prend la décision ou pas d’autoriser la transaction.

Tous les pans de la société peuvent être soutenus par des algorithmes. Que ce soient des algorithmes simples, développés par des personnes pour créer des process au sein des entreprises. Ou des algorithmes qui font appel au machine learning qui vont permettre d’optimiser les process grâce à l’utilisation de données mises à leur disposition.

Les algorithmes : un bien ou un mal pour les utilisateurs ?

Cela dépend du cadre dans lequel ils sont utilisés. Dans l’exemple précédent, l’algorithme protège l’utilisateur de la fraude. Si on pense aux algorithmes liés à la gestion du contenu proposé par les réseaux sociaux, on peut émettre certaines réserves. Pour facebook, l’objectif va être de garder ses utilisateurs le plus longtemps possible sur sa timeline pour pouvoir lui montrer (et donc vendre) le plus de publicité possible. Facebook va utiliser pour ce faire des algorithmes de prédictions qui vont anticiper, en fonction de qui tu es et de ton comportement sur la plateforme, les contenus les plus aptes à te faire rester sur la plateforme. On est d’accord que passer sa journée sur facebook n’est pas l’idéal. Un autre danger est le filtrage, facebook va te montrer des contenus avec lesquels tu es d’accord. Tu n’es pas confronté à la réalité, mais plutôt à un écosystème qu’on a construit pour toi, pour que tu sois heureux et que tu restes sur la plateforme. On peut se demander si c’est vraiment dans l’intérêt de l’utilisateur.

Notre santé mentale est-elle menacée ?

On est sur des algorithmes qui étudient comment fonctionne l’humain, travaillent sur ses envies et ses besoins pour pouvoir atteindre son objectif : lui montrer de la publicité le plus souvent possible et le plus longtemps possible. C’est clair que cela pose question.

Une anecdote rapporte que le user experience designer de Facebook qui a inventé le like, a quitté l’entreprise et regrette son invention. L’invention du like impacte les gens à la recherche de reconnaissance. Ils vont sans cesse vouloir plus de likes, d’amis…

Le besoin de reconnaissance qui a toujours existé a été décuplé par les réseaux sociaux. Les plateformes ont agrandi ton cercle social. C’est comme si tu faisais des albums photo de tes vacances, que tu allais les montrer à n’importe qui, avec l’espoir qu’on te dise que cela avait l’air fabuleux. En sachant que les photos ne représentent pas ce que tu as vécu mais qu’elles ont été prises ou retravaillées en fonction de ce qui va plaire sur la plateforme.

Après de nombreux algorithmes sont positifs, dans le domaine de la recherche médicale ou de la chimie par exemple. Lorsqu’ils permettent de mieux détecter le cancer du sein ou de pouvoir prévoir la bio dégradabilité d’un matériau. Les algorithmes vont aussi permettre d’interagir avec l’environnement de manière optimale pour consommer le moins d’énergie possible et donc réduire son impact sur la planète.

Quel est le plus grand danger des algorithmes ?

Pour moi, c’est un algorithme qui est « entraîné », donc construit, à partir de données qui ne sont pas ou mal qualifiées. Les données représentent la base de l’entrainement de l’intelligence artificielle. Si elles sont biaisées, la logique sera biaisée et l’utilisation d’un algorithme biaisé risquent d’engendrer de grosses dérives.

Prenons l’exemple de la détection faciale.
Certaines intelligences artificielles détectent des personnes de couleur comme étant des animaux parce qu’elles ont a été mal entraînées, entraînées par des blancs, avec des photos des blancs, sur base de la morphologie des blancs…

Dans la cadre des plateformes, on ne peut pas parler de biais mais on peut se demander si les objectifs poursuivis par les algorithmes sont louables. Prenons l’exemple de Tinder qui veut te faire passer le plus de temps sur sa plateforme et qui va susciter de nombreuses frustrations pour que tu passes à la formule premium payante. Il n’y a pas de biais. L’objectif de Tinder est clair. Est-il louable pour autant ? C’est une autre question.

Les algorithmes des plateformes présentent-ils des opportunités ?

Ils permettent d’avoir de la publicité qui est mieux ciblée et plus en adéquation avec les comportements. Beaucoup de personnes sont contre et refusent par exemple les cookies. Je pars du principe que la publicité, il y en aura toujours. Alors autant qu’elle soit en adéquation avec ce qui me plaît. Voir des publicités pour des chaussures de grand-mère n’a aucun intérêt pour moi. Alors que voir de la publicité pour des accessoires d’iPhone parce que je suis fan de Apple ou du mobilier design parce que j’aime ça, est plus relevant.

Facebook et les régies publicitaires en général sont de plus en plus payées au clic (ou à la vue). Leur intérêt est donc de te faire cliquer, donc choisir la bonne publicité, au bon moment, pour la bonne personne. Si un annonceur veut vendre un vélo électrique, facebook veut permettre de cibler quelqu’un qui aime les produits bio, qui a liké les pages de transports publics ou qui partage des photos de balade à vélo plutôt qu’un gameur qui passe toute la journée devant son ordinateur et qui n’utilise pas de vélo.

Algorithme et vie privée font-ils bon ménage ?

Le principe du machine learning, c’est qu’il se nourrit de données. Elles sont indispensables pour pouvoir les travailler et en sortir quelque chose. Les données à caractère privé, c’est assez nouveau, ça a quelques années maintenant. La question est de savoir ce qui relève du privé. Mon nom, mon prénom, mon adresse, mon IP de connexion, cela semble clair. Quid de mon comportement sur le net. C’est un des enjeux du RGPD qui dit OK pour collecter ces données mais il faut avertir les utilisateurs que ces données sont collectées, leur expliquer ce qui en est fait et leur demander l’utilisation de les suivre et de les utiliser.

L’utilisation des cookies tiers tend à disparaître. On se dirige vers la fin du tracking individuel. Fini de construire du contenu autour d’un individu et de ses données privées et de le profiler. On va vers l’anonymisation des données, c’est-à-dire que les informations personnellement identifiables seront irréversiblement altérées. Votre comportement ne sera plus lié à votre profil personnel. On va vers un tracking collectif. L’idée étant de regrouper les personnes ayant des habitudes de navigation similaires. Les individus sont impossibles à identifier au sein de ces groupes. C’est ce que Google est en train de mettre en place avec le FLoC. Notons que dans certains cas où l’identification peut être nécessaire pour des raisons légales par exemple, on va utiliser un processus de pseudonymisation qui limite le risque de corrélation directe entre des informations nominatives, mais qui ne gomme en aucune manière le caractère nominatif des informations exploitées.

Quel futur pour les algorithmes ? Se dirige-t-on vers plus ou moins d’algorithmes ?

Pour moi on va vers de plus en plus d’algorithmes, dans tous les domaines de la société. Il y a tellement d’exemples positifs où les algorithmes permettent de prendre de meilleures décisions ou créer de meilleurs « matchs ».

Share

0

Comments

No comment yet for this article.

Leave a comment