Vous avez l’habitude d’utiliser ChatGPT ? Bien que les outils d’intelligence artificielle puissent se montrer très pratiques pour réaliser de nombreuses tâches du quotidien, l’utilisation de l’IA comporte des risques importants pour la sécurité de vos données. Quels sont ces risques, et comment assurer la confidentialité de vos informations ? Nous vous expliquons tout de suite les principaux dangers de l’IA et quelles recommandations appliquer pour renforcer votre protection lors de l’utilisation de ces outils.
Que deviennent vos données partagées avec l’IA ?
De nombreuses personnes sont tombées sous le charme de l’intelligence artificielle ces dernières années, et notamment de la plateforme ChatGPT qui facilite la génération de texte, entre autres tâches. Toutefois, lorsque vous partagez des informations avec ChatGPT ou d’autres outils d’IA partageant des fonctionnalités similaires, savez-vous réellement ce qu’elles deviennent ?
Comment sont collectées et utilisées vos données
Afin de pouvoir s’entraîner, les systèmes d’IA générative ont besoin d’autant de données que possible. Plus ces données sont nombreuses, plus les modèles se perfectionnent et améliorent leur compréhension des comportements humains. Les lois sont encore limitées à ce sujet, ce qui signifie qu’à votre insu, les données que vous partagez à une IA pourraient être utilisées pour entraîner le modèle, même s’il s’agit d’informations sensibles.
De plus, au-delà des données partagées lors de vos interactions, les applications d’IA telles que ChatGPT collectent également les données liées à votre connexion, comme votre adresse IP, le type de navigateur utilisé et la manière dont vous interagissez avec l’application.
En réalité, même si l’on peut lire que la collecte de ces données sert à améliorer la qualité des services de ces applications, vous n’avez aucune certitude quant à la manière dont elles sont réellement utilisées. Vous n’êtes pas non plus assuré de la sécurité de leur stockage, sans parler de l’utilisation par des tiers. En effet, les informations collectées par l’IA peuvent être partagées à des services tiers, également à des fins d’amélioration des services mais aussi dans un objectif publicitaire. Tout cela ne fait qu’augmenter les risques d’utilisation abusive et d’accès non autorisé à vos données. En cas de violation de données, vos informations personnelles ou professionnelles peuvent être exposées.
Une interprétation parfois trompeuse
L’intelligence artificielle actuelle manque encore de compréhension contextuelle. Elle peut interpréter des informations personnelles de manière erronée ou biaisée, ce qui peut entraîner des décisions injustes, qui peuvent impacter les utilisateurs. Par exemple, des données sensibles comme l’âge, le revenu ou le statut marital peuvent être utilisées pour évaluer l’éligibilité à un emploi ou à un logement. De plus, en marketing, l’IA peut diffuser des contenus inappropriés basés sur le comportement en ligne. Le principal risque réside dans le fait que, une fois les données partagées avec une IA, il est impossible d’en contrôler totalement l’usage.
Les problèmes liés aux droits d’auteur
Au-delà des risques engendrés par le partage de données sur des outils IA pour les particuliers et les professionnels, le problème devient encore plus préoccupant pour les créateurs. Les droits d’auteur et les droits à l’image ne sont pas toujours respectés par l’IA, ce qui met en danger le travail des artistes et pose des questions sur l’utilisation des contenus générés par les humains et exploités sans consentement explicite.
Quelles données pouvez-vous partager ?
Si vous décidez d’utiliser ces outils, vous ne devrez partager que les données nécessaires à votre recherche, et jamais plus. Vous pouvez poser des questions sur des sujets généraux, ou demander des explications sur des concepts ou des conseils sur des tâches qui ne sont pas liées à des informations personnelles. Vous limitez ainsi le risque de perte de confidentialité de vos informations privées.
Ce qu’il ne faut jamais partager avec ChatGPT et les autres IA
Pour limiter au maximum les risques pour vos données, voici les informations que vous ne devriez jamais partager avec ChatGPT ou toute autre IA :
- Vos mots de passe et identifiants de connexion : ces informations sont extrêmement sensibles, et en les partageant avec un outil d’IA, vous courrez le risque d’accès non autorisés à vos comptes. Il est également important de rappeler que ChatGPT ne doit jamais être utilisé comme gestionnaire de mot de passe.
- Toute information permettant de vous identifier : ne partagez jamais votre nom complet, votre adresse, votre numéro de sécurité sociale, ou toute autre information permettant de vous identifier.
- Vos données médicales ou financières : le partage d’informations financières pourrait entraîner des pertes financières importantes, vos données médicales doivent également rester strictement confidentielles.
- Des données d’entreprise : les données d’entreprise doivent rester secrètes pour éviter tout impact sur la réputation de l’entreprise.
4 conseils pour améliorer votre confidentialité lorsque vous utilisez ChatGPT
- Intéressez-vous aux politiques de confidentialité avant d’utiliser un outil d’IA.
- Ne partagez que des informations génériques, rien de personnel, pas de faits spécifiques, et restez anonyme.
- Utilisez des connexions sécurisées.
- Restez conscient des limitations et des risques engendrés par l’IA, ne vous faites pas surprendre.