Comment Google traque la pédophilie dans Gmail

Google

Vous n'avez pas pu passer à côté de cette information, nous apprenions hier que Google avait permis à la police d'appréhender un pédophile, en croisant la numérisation automatique des images et le scan systématique de nos emails. Une bonne nouvelle pour la traque des délinquants, mais c'est la consternation concernant la vie privée. Google a donc dû clarifier ses méthodes.

Suivez Gizmodo sur les réseaux sociaux ! Sur TwitterFacebook ou Google+ !

La frontière est plus que ténue, car le pédophile attrapé par Google n’avait laissé aucune trace virtuelle de ses méfaits à l’extérieur de son compte Gmail. Concrètement, sans la chasse donné par la firme de Mountain View, il n’aurait pu être interpellé.

Seulement, la pensée commune veut que, naturellement, les gens se soient interrogés sur les conséquences d’une telle fouille en terme de vie privée : les emails personnels étant littéralement épiés. En résumé, Google ne vous traque pas vous ni votre contenu, mais seulement le contenu illicite.

Dans une déclaration à l’AFP , un porte-parole de Google a expliqué :

« Chaque image représentant l’abus sexuel d’un enfant est dotée d’une empreinte digitale unique qui permet à nos systèmes d’identifier ces photos, y compris au sein de Gmail.

Il est important de se rappeler que nous n’utilisons cette technologie que pour identifier les abus sexuels sur enfants – Pas pour d’autres contenus électroniques qui pourraient être associés à une activité criminelle (par exemple l’utilisation du courriel pour retracer un cambriolage). »

L’ensemble de ce fameux processus « d’empreintes digitales » a été présenté par chef des affaires juridiques, David Drummond, au sein d’un article du Telegraph. Dans ce document, Drummond souligne les efforts fournis en collaboration avec l’Internet Watch Foundation pour « identifier de manière proactive les images d’abus d’enfants que Google peut alors retirer du moteur de recherche ». Ce procédé de marquage est extrêmement performant et a nécessité pas moins de 7 ans pour en arriver à ce stade de pertinence. On imagine que la base de données de clichés référencés doit être colossale.

Ils expliquent :

« Depuis 2008, nous avons utilisé une technologie de tag à destination d’images d’enfants sexuellement exploités, ce qui nous permet d’identifier les images dupliquées existant ailleurs. Chaque image est pourvue d’une empreinte unique que nos ordinateurs peuvent reconnaître, sans qu’un homme ait à les voir de nouveau. »

Ainsi, certes, Google analyse (pour rester polie) votre boîte de réception, mais seulement dans l’optique de compromettre des objets virtuels, déjà considérés comme illégaux. Alors, au final, la notion de vie privée serait toujours intacte et la justice, elle, rendue ?

Tags :Sources :AFPengadgetTelegraph
Dernières Questions sur UberGizmo Help
  1. Dans la logique des choses cette empreinte digitale dont il parle sont des caractéristiques issues de l’image et ensuite passés dans un algorithme de type « machine learning ». Pour cela il faut en théorie extraire les bonnes caractéristiques de l’image et se constituer une très grosse base d’apprentissage… Si c’est bien ça (ce n’est pas certains du tout) le travail des ingénieurs doit quand même être assez abominables car regarder ces photos au quotidien doit être un vrai supplice!

    1. @ibidule

      A moins d’employer des pédophiles repentis…

      Je me vois mal rentrer tous les soirs retrouver ma femme et mes enfants en ayant visionné toute la journée des saloperies de photos, sans que cela ne finisse par me faire péter les plombs un jour ou l’autre! ,

      1. Je crois bien avoir déjà lu un article sur le sujet qui indiquait que les gens en charge de ce genre de boulot étaient surveillés psychologiquement de prés, et ne gardait pas ce poste trop longtemps, à cause justement de ça ;certains le vivait vraiment trop mal.

  2. Oui enfin pour l’instant c’est uniquement pour lutter contre la pédophilie, après si demain google commence à lutter contre autre chose ils peuvent le faire tout aussi facilement.
    Il peuvent très bien fouiller dans la vie privée des gens avec les meilleurs intentions du monde mais ça reste de mon point de vue une atteinte à notre vie privée.

  3. Google prouve encore que c’est le Big Brother…mais là, on peu rien dire, c’est pour la bonne cause !
    quoi qu’il en soit, je vais m’abstenir de me servir de Gmail, j’aime bien avoir une vie privée !

  4. Mais pourquoi google dénoncerait un pédophile et pas un terroriste succeptible de faire des milliers de mort ou encore un acte criminel tel qu’un viol ou un attaque de fourgon ou de banque et j’en passe. Google nous prends pour des gogols mais on ne me la fait pas. Nos boites sont surveillées depuis tout le temps et côté vie privée cela fait bien longtemps qu’un internaute n’en a plus. Alors stop ce genre d’imbecilité, cela ne trompe personne et à mon avis cette déclaration serait plus pour rendre service aux criminels de tout poils en les avertissant. S’ils voulaient vraiment casser du pédophile, il fallait qu’ils se taisent…

  5. Pour ma part je pense que ce système serait une perte de temps en France , étant donnée que les pédophile ou violeur prennent généralement très peu de prison. A vérifier si ce n’est pas eux les victimes !! Je pense plutôt qu’il serait plus intéressent que google ne donne pas les info à la justice mais directement aux citoyens pour qu on puisse casser du pédophile.

  6. Il y a obligatoirement des faux positifs avec leur algo.
    Donc la photo de toi prenant ton bain avec ton enfant peut finir visionnée par un type de Google (On parle de Gmail mais je suppose que c’est pareil avec Google Drive et que ‘les autres’ font pareil).

    En plus pour mettre au point l’algo, il a dû falloir une (très) grande quantité de photos… illégales.

    Ya quand même beaucoup de choses douteuses dans ce principe.

    Mais comme c’est pour la bonne cause, on ne peut rien dire.

    1. Non pas forcement tu as déjà vu un faux positif dans la recherche par image do google image? Perso moi non et je l’utilise quotidiennement. L’algorithme n’est pas intelligent il compare les images à d’autres déjà en base de données. Dans le cas présent, identifiés par des humains comme étant pédophiles, il s’agit d’images d’enfant abusés et non d’enfant simplement nus.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publicité