PROJET AUTOBLOG


Opennews

source: Opennews

⇐ retour index

Stanley Claisse, avocat et Stéphane Bortzmeyer, ingénieur système - CPU ⬜ Carré Petit Utile - GuiGui's Show - OpenNews - GuiGui's Show

mardi 21 août 2018 à 01:09
"D'abord, un humain est peut-être un chouïa plus difficile à cerner qu'un fruit"
L'exemple des fruits est là pour démontrer qu'il est mathématiquement incorrect de prétendre qu'une sélection ayant un grand nombre de faux positifs est un problème en soi. D'ailleurs, le problème des faux positifs est d'autant plus réduit que l'objet à sélectionner est compliqué, car cela implique que la variable introduite par la surveillance automatique est d'autant plus facilement décorrélée de la variable obtenue par les méthodes traditionnelles.
Donc je ne vois pas en quoi cet argument permet de sauver l'argument des faux positifs.

"Tu obtiendras donc des faux positifs dans ton tri de fruits"
Mon premier commentaire était l'expression de mon sentiment que ceux qui parlent de l'argument du faux positif n'ont pas beaucoup d'expérience dans l'analyse des données. Ceci ne m'aide pas à me défaire de cette expression: vous semblez expliquer cela comme si ce n'était pas une évidence parfaitement connue par tout ceux qui traitent sérieusement de traitement des données.
De nouveau, je ne vois pas en quoi cela répond à ma première critique.

"Dans le cas du terrorisme, il n'y a même pas de définition légale de ce que c'est."
Cela est bien dommage en effet, mais en attendant, il existe une lutte traditionnelle contre le terrorisme. Celle-ci définit une limite. Je suis 100% d'accord avec vous qu'il y a un problème là. Mais ce problème n'a rien à voir avec l'argument des faux positifs. Ce n'est pas l'existence de faux positifs qui crée ce problème. Cet argument est un bon argument contre la surveillance en général, mais s'il est utilisé pour attaquer la surveillance automatique uniquement, cela revient à dire que vous ne voyez pas de problème à avoir une surveillance traditionnelle qui a ces problèmes.
La surveillance automatique ne va pas forcément amplifier les arrestations, car l'exécutif sur ce plan est surement déjà saturé, simplement, au lieu de s'attaquer injustement au musulman qui est un faux positif dans la méthode traditionnelle, on va déplacer le cercle des victimes sur d'autres critères, sans forcément l'augmenter.
Cela va peut-être l'augmenter, mais cela concerne un autre argument contre la surveillance automatique, celui d'une application défaillante, mais pas celui des faux positifs: le fait d'avoir plus de faux positifs dans la surveillance automatique n'implique pas, mathématiquement, qu'il y aurait plus de faux positifs.

"C'est tellement flou et détaché de la personne que c'est évident."
Mais mon premier message prend justement le temps d'expliquer: on s'en fout si une méthode a énormément de faux positifs, du moment qu'il existe une seconde méthode qui produit une variable non-corrélée. Dans votre cas, la surveillance automatique dira "attention, probabilité de 90%" et la surveillance traditionnelle dira "hm, aucun marqueur traditionnel n'est présent, c'est donc un faux positif". Mieux, la surveillance traditionnelle, pour une raison ou une autre, peut aussi conclure à une grande probabilité d'être suspect, et la surveillance automatique peut apporter des éléments pour disculper l'individu.
C'est le résultat mathématique que j'essaie d'expliquer: Une méthode avec peu de faux positif est moins bonne que cette même méthode accompagnée d'une seconde méthode produisant une variable partiellement décorrélée, peu importe le nombre de faux positif de cette seconde méthode.

"Donc on flique tout le monde pour un résultat nul"
Comme expliqué, pas forcément: cela permet d'innocenter les gens suspectés par la méthode traditionnelle.
Un élément qui me dérange un peu, c'est que les faux positifs de la méthode traditionnelle sont typiquement des minorités, et j'ai l'impression que certains se réveillent uniquement quand ils se rendent compte qu'avec la surveillance automatique, comme la sélection se basera sur des éléments moins triviaux que l'appartence ou la fréquentation d'un groupe communautaire minoritaire, ils peuvent également être eux-mêmes un faux positif.

Après, qu'on ne s'y trompe pas: la surveillance automatique, du moins telle que présentée actuellement comme la solution miracle, c'est de la merde. Pour plein de raisons:  aucun contrôle et une trop grande facilité de dérives, aucune preuve que la variable décorrélée sera utilisée correctement, aucune garantie que l'algorithme en soi sera contrôlé pour éviter l'overtraining ou un training sur un échantillon biaisé, ...
C'est pour ça que l'argument des faux positifs est frustrant: c'est frustrant de voir quelque chose de mathématiquement et logiquement faux être utilisé alors qu'il y a plein d'autres bonnes raisons.
(Permalink)