Être rappelé
Démonstration
Pour traiter votre demande, nous devons traiter vos données personnelles. Plus d’informations sur le traitement de vos données personnelles ici.
Dans un monde où la transformation numérique s’accélère, l’intelligence artificielle (IA) s’impose de plus en plus dans nos environnements professionnels. Pourtant, cette adoption rapide ne se fait pas sans risques. Le Shadow IA, ou utilisation non contrôlée d’outils d’IA par les employés, représente un nouveau défi de taille pour les entreprises, notamment en matière de conformité au RGPD et de sécurité des données.
Le Shadow IA désigne l’utilisation non officielle ou non contrôlée d’outils et d’applications d’intelligence artificielle par les employés au sein d’une organisation. À l’instar du Shadow IT, où les collaborateurs utilisent des logiciels ou des services informatiques sans l’approbation de l’équipe IT, le Shadow IA se produit lorsque des employés adoptent des solutions d’IA sans que l’entreprise en ait pleinement conscience ou sans que celles-ci soient intégrées dans un cadre de sécurité approprié.
L’attrait pour l’IA est évident et compréhensible. Voici quelques raisons pour lesquelles vos employés pourraient être tentés d’utiliser ces technologies de manière informelle :
1. Fuite d’informations sensibles
Ex : employés qui copient-collent des infos clients, business plans, roadmaps produit, contrats, rapports internes, données RH, etc. dans un chatbot → risque de divulgation, perte d’avantage concurrentiel et violation de clauses de confidentialité.
2. Données personnelles non encadrées
Usage d’IA sans base légale, sans information des personnes, sans durée de conservation définie et sans suppression garantie → risque RGPD immédiat.
3. Apprentissage non maîtrisé
Certains modèles réutilisent les prompts, les outputs ou les métadonnées pour s’entraîner → risque de réexposition des données ou d’utilisation non prévue.
4. Transfert de données hors UE
Beaucoup d’outils d’IA fonctionnent via des clouds et prestataires non européens → problématiques de localisation des données, Cloud Act, contractualisation et garanties insuffisantes.
5. Qualité du travail dégradée
Outputs IA non relus, erreurs, hallucinations, biais, approximations ou traductions hasardeuses → baisse de fiabilité, perte de crédibilité et décisions prises sur de mauvaises bases.
En avril 2023, Samsung a fait face à une situation critique concernant l’utilisation non autorisée d’intelligence artificielle par ses employés, ce qui a entraîné la fuite de données sensibles.
Voici ce qui s’est passé :
Contexte de l’Incident
Samsung, leader mondial de l’électronique et des semi-conducteurs, avait autorisé l’utilisation expérimentale de ChatGPT, un outil d’IA générative développé par OpenAI, dans certaines divisions pour faciliter des tâches telles que la traduction de documents, la révision de code et l’amélioration de la productivité. Cependant, des employés, en voulant tirer parti de cet outil pour accélérer leur travail, ont accidentellement partagé des informations hautement confidentielles avec la plateforme.
Les données compromises
L’incident a impliqué trois fuites de données distinctes :
Conséquences pour Samsung
Suite à cet incident, Samsung a été contraint de :
Pour limiter les risques associés au Shadow IA et protéger votre organisation, voici quelques mesures essentielles à adopter :
Le Shadow IA représente un défi croissant pour les entreprises à l’ère de l’intelligence artificielle. En adoptant une approche proactive, en sensibilisant vos équipes et en collaborant avec des experts comme Dipeeo, vous pouvez naviguer en toute sécurité dans ce paysage en constante évolution. La conformité et la sécurité doivent être des priorités absolues pour protéger ce qui est au cœur de votre activité : vos données.