linkedin

LinkedIn : vous avez jusqu’au 3 novembre pour refuser l’utilisation de vos données par l’IA

Depuis le 18 septembre, les utilisateurs de LinkedIn peuvent choisir de refuser que la plateforme utilise leurs données pour entrainer son IA. L’option est pré-cochée, comment la désactiver ?

Dans un billet paru sur son site, LinkedIn avertit ses utilisateurs d’une mise à jour de ses conditions générales d’utilisation prévue le 3 novembre 2025. A compter de cette date, le réseau social professionnel va utiliser les données personnelles de ses utilisateurs pour entrainer son intelligence artificielle (IA) générative.

Quelles données sont collectées par LinkedIn ?

L’objectif affiché est d’améliorer l’expérience utilisateur et de connecter plus efficacement les membres aux opportunités. Les données concernées sont tant celles liées au profil (nom, prénom, compétences, âge, genre, centres d’intérêt, employeurs, adresse mail…) que le contenu public rédigé sur la plateforme, en billet ou en commentaires (impliquant également l’historique de recherche et des données techniques comme l’adresse IP, la localisation, le type de navigateur…) ; les messages privés, quant à eux, ne sont pas visés.

Toutefois, vous avez la possibilité de vous y opposer. Pour ce faire, une fois connecté à votre profil, cliquez sur « Préférences » puis « Confidentialité des données » (la page est accessible ici), vous pouvez alors décocher la case « Utiliser mes données pour entraîner des modèles d’IA de création de contenus ».

A lire aussi : Protection des données personnelles : augmentation des plaintes auprès de la Cnil

La Cnil veille au grain

La Commission nationale de l’informatique et des libertés (Cnil) affirme être en contact régulier avec l’autorité de protection irlandaise, la DPC (LinkedIn ayant son siège européen en Irlande) et veiller « particulièrement à ce que toute personne concernée soit informée de manière suffisamment claire de l’utilisation de ses données, et puisse à tout moment exercer ses droits sur ces dernières ». Elle conclut : « La conformité de tels traitements dépend aussi en grande partie des garanties et solutions techniques mises en œuvre par le développeur, notamment afin d’empêcher que des données personnelles ne soient mémorisées puis divulguées par les modèles d’IA. Il s’agit par exemples du choix des catégories de données utilisées et des mesures d’anonymisation de ces dernières. »