#22 - Transparence et protection de vie privée à l’ère du big-data

#22 - Transparence et protection de vie privée à l’ère du big-data

Description de la soirée du 25 Avril 2017 - Toulouse Data Science
-----------------------------------------------------------------------------------------
Ethique et algorithme, où est la limite??

Vous souvenez-vous du robot Tay de Microsoft ? Tay est un robot doté d’une intelligence artificielle et capable de l’accroître en conversant avec des internautes via des tweets. En Mars dernier, ses créateurs ont dû le désactiver au bout de quelques heures car il véhiculait des propos racistes, négationnistes ou encore sexistes. Tay était tombé sous l’influence d’interlocuteurs humains mal intentionnés qui lui apprenaient surtout la violence verbale ! Qui blâmer?? Les internautes qui ont provoqué ces dérives, le robot lui-même ou les développeurs de Tay qui n’avaient pas anticipé le risque??

Avez-vous entendu parler de ProPublica qui a recensé le cas d'un algorithme utilisé pour prédire la probabilité qu'un individu commette un crime dans le futur? En l'occurrence, l'algorithme en question a montré que les noirs étaient plus enclins au crime que les blancs après avoir utilisé des données extrêmement biaisées.

Bref, vous l’aurez compris les développeurs portent sur leurs épaules une lourde responsabilité.

Lors de cette soirée, François Royer a présenté les mécanismes permettant de mettre en place des applications de machine learning transparentes et auditables. (cf slides ci-dessus)

Ulrich Aïvodji : Doctorant en Informatique, Ulrich travaille au LAAS-CNRS au sein des équipes ROC(Recherche Opérationnelle, Optimisation Combinatoire et Contraintes) et TSF(Tolérance aux fautes et Sûreté de Fonctionnement). Ses travaux de recherche portent sur la protection de la vie privée dans les services de localisation. Vous trouverez ces slides ici : https://goo.gl/ROqIif

6aa4f3c589d3108830b371d0310bc4da?s=128

Toulouse Data Science

April 26, 2017
Tweet