31 octobre 2017

Votre iPhone reconnaît automatiquement vos photos coquines

Votre iPhone reconnaît automatiquement vos photos coquines

De nombreux internautes se sont indignés, lundi, après que ellieeewbu, une utilisatrice de Twitter, a remarqué que l'application Photos de son iPhone reconnaissait automatiquement ses photos d'elle nue.

Il s'agit pourtant d'une fonctionnalité qui a plus d'un an et qui ne cible pas spécifiquement les photos coquines.

La controverse lancée par l'utilisatrice Twitter est fondée sur un malentendu de la part de la jeune femme, qui a mal interprété les résultats de recherche proposés par son application. Son tweet avait été relayé près de 12 000 fois et avait récolté 21 500 mentions « j'aime » mardi midi.

Selon ellieeewbu, Apple enregistre certaines photos compromettantes prises par les utilisateurs d'iPhone et crée un dossier nommé « Brassiere » (soutien-gorge, en anglais) sur leur appareil.

ATTENTION ALL GIRLS ALL GIRLS!!! Go to your photos and type in the ‘Brassiere' why are apple saving these and made it a folder!!?!!?😱😱😱😱

Or, cette utilisatrice fait en réalité référence à une fonctionnalité de reconnaissance automatisée qui a été implémentée en 2016 lors de la mise à jour iOS 10. Il s'agissait même de l'une des additions phares de cette version du système d'exploitation d'Apple.

L'application photos est capable de reconnaître des expressions faciales, des contextes et des objets en se basant sur des banques de données appartenant à Apple. Elle peut donc automatiquement vous indiquer les photos sur lesquelles vous exprimez du dégoût, celles contenant un certain décor comme un lieu historique, ou celles qui contiennent… un soutien-gorge!

Comme tous les systèmes du genre, il existe toutefois une marge d'erreur. C'est pourquoi certaines utilisatrices de Twitter qui ont répondu à ellieeewbu ont indiqué que l'application leur montrait des photos d'elles en maillot de bain, en camisole et même des photos d'elles nues.

Un système plus sécuritaire que par le passé
Vos photos n'ont pas à quitter votre téléphone pour être analysées, puisque la technologie d'apprentissage machine et l'intelligence artificielle derrière ces opérations fonctionnent à partir de la puce interne de votre appareil.

Une fois la reconnaissance effectuée, l'algorithme ajoute des étiquettes correspondant au contenu détecté aux métadonnées de la photo. C'est sur ces métadonnées que l'outil de recherche de l'application Photos se base pour trouver vos photos. Ce sont donc des étiquettes associées aux photos qui sont créées, et non des dossiers spécifiques, comme le prétendait ellieeewbu.

Auparavant, en raison de la puissance requise pour analyser des photos, il était nécessaire de téléverser ses images dans le nuage pour que le système de reconnaissance puisse faire son travail. Cette étape supplémentaire constituait une menace potentielle pour la sécurité de ces données parfois sensibles.

Les photos coquines des utilisateurs d'iPhone sont donc en meilleure sécurité depuis 2016 qu'elles ne l'étaient auparavant, mais elles restent facilement accessibles pour un pirate qui parviendrait à s'infiltrer dans leur téléphone.

Pour cette raison, il est recommandé de toujours user de prudence lors de vos interactions en ligne, d'uniquement vous connecter à des réseaux sans fil sécurisés et d'utiliser un bon mot de passe ou le système de reconnaissance d'empreinte digitale ou faciale de votre iPhone pour ouvrir votre appareil.


Source : SRC
Tous droits réservés © Prodige Média – 2017 - 2024
Politique de confidentialité | Termes et conditions