L’intelligence artificielle dans le domaine du luxe et la protection des données personnelles

in #steempress5 years ago


L’intelligence artificielle révolutionne bien des domaines. Celle-ci devient de plus en plus un outil permettant aux entreprises, notamment aux marques de créer de la valeur. Nombreux sont les usages dont les marques peuvent faire de l’intelligence artificielle. Toutefois, il importe que cette technologie soit utilisée dans le respect de la protection des données personnelles.

La détection de tendances

L'intelligence artificielle permet aux marques de détecter les tendances afin de répondre plus aux besoins de leur clientèle et d’élaborer des collections à leurs goûts : ainsi que l’a fait Yoox récemment. Le géant américain IBM s’est associé avec le producteur de parfums Symrise afin de produire des parfums grâce à une intelligence artificielle appellée Philyra. Il ne s'agit pas de remplacer les experts par des acteurs de l'intelligence artificielle, mais de créer entre eux une interaction dans le but de concevoir des parfums « parfaits » pour les consommateurs. Dans la même logique de détection de tendance, la marque Chanel s’est dotée d’une intelligence artificielle appelée Otto.

La détection et l'analyse des datas émotionnelles

L’intelligence artificielle permet également de détecter et d’analyser des données émotionnelles des clients. « Utilisés en temps réel et embarqués dans les caméras, les algorithmes d’analyse de sentiments permettent de détecter les émotions des individus passant devant la caméra ». Les expressions du visage (réactions) et des comportements sont alors détectés et analysés afin de constituer des datas émotionnelles qui permettraient aux marques de répondre au mieux aux attentes de leurs clients, de présenter des produits à leur goût afin d’augmenter les achats. Nombreux sont les modes de collecte de données émotionnelles notamment le facial coding, le biofeedback (mesure des signes vitaux). L’idée c’est d’avoir une meilleure compréhension du client et de ses comportements pour un meilleur service !

Le traitement des datas émotionnelles face au RGPD

Même si les données n’ont pas d’émotion, les émotions sont des données. Le hic, c’est que ces données émotionnelles sont ou du moins peuvent-être des données personnelles. Ce sont des données biométriques, donc des données sensibles.

L’article 4 alinéa 1 du RGPD définit les données à caractère personnel comme « toute information se rapportant à une personne physique identifiée ou identifiable … ». Si la data émotionnelle peut permettre d’identifier une personne, celle-ci est une donnée à caractère personnel, si l’on suit la logique de cet article. Mais, la captation des émotions par des caméras, et ce, à l’insu des utilisateurs n’est-elle pas une invasion, une atteinte à la vie privée de ceux-ci ? La captation d’émotions faite par des caméras ne permet-elle pas d’identifier une personne ? L’identification est possible dès lors que la caméra capte une image d’une personne.

La captation des émotions notamment via une caméra peut être qualifiée de « collecte ». Une collecte au cours de laquelle les personnes concernées peuvent bien être identifiées. L’identification peut alors intervenir en amont de l’analyse des émotions. Le RGPD ne précise pas le moment de l’identification ou le moment où les personnes concernées peuvent être identifiables. La collecte et l’analyse des données émotionnelles rentrent dans la qualification de « traitement » au sens de l’article 4 de ce règlement. Il ne fait aucun doute que ces données font l’objet de traitement.

Le RGPD exige que tout traitement de données personnelles donne lieu, en amont, à un consentement des personnes concernées. Un consentement libre, éclairé, et univoque est exigé. Or, les consommateurs en aucun moment ne consentent à la collecte par les marques de leur données émotionnelles. Une personne qui entre dans un magasin ou qui se tient devant un affichage « intelligent », ne consent aucunement au traitement de ses émotions. Et le considérant exige un traitement « licite et loyal ». Pourrait-on en déduire que le traitement est illicite?

« Il s’agit ici d’une invasion d’un nouveau territoire de la vie privée, la vie privée mentale »

Quelle serait alors la solution ?

• Primo, demander le consentement. Ce dernier étant primordial.

• Secundo, l’anonymisation de ces données afin de leur faire échapper à l’application du RGPD. Cependant, cette anonymisation doit être irréversible et ne permettant, en aucun cas, l’identification des personnes concernées. L’anonymisation se distingue de la pseudonymisation. Celle -ci restant attachée à la personne concernée grâce à un identifiant.


Posted from my blog with SteemPress : http://blog.economie-numerique.net/2018/12/28/lintelligence-artificielle-dans-le-domaine-du-luxe-et-la-protection-des-donnees-personnelles/

Sort:  

Tiens, je ne connaissais pas cette captation des émotions. Une chose est sûre : l’IA va changer le futur. Merci 😅

Ce post a été supporté par notre initiative de curation francophone @fr-stars.
Rendez-vous sur notre serveur Discord pour plus d'informations

Coin Marketplace

STEEM 0.34
TRX 0.11
JST 0.034
BTC 66344.62
ETH 3214.81
USDT 1.00
SBD 4.37