L’intelligence artificielle inquiète la DGSI

La Direction générale de la sécurité intérieure (DGSI) vient de remettre une note sur l’intelligence artificielle. Elle alerte sur ses dangers, alors que son usage devrait augmenter partout.

L’IA est un danger potentiel selon la DGSI

Début janvier 2026, une note de la Direction générale de la sécurité intérieure a été diffusée auprès de plusieurs entreprises françaises afin d’alerter sur les risques liés à l’intelligence artificielle. Ce document officiel souligne que l’adoption rapide de l’intelligence artificielle dans les organisations expose désormais les acteurs économiques à des menaces opérationnelles, financières et stratégiques encore largement sous-estimées.

L’intelligence artificielle est aujourd’hui utilisée dans de nombreux services. Cependant, la note de la DGSI insiste sur les dérives observées dans un cadre professionnel. La DGSI a recensé plusieurs incidents récents impliquant des salariés ayant recours à des outils d’IA générative grand public. Or, ces pratiques, bien que courantes, peuvent entraîner une perte de contrôle sur des informations sensibles, car les données saisies peuvent être réutilisées par les fournisseurs de solutions d’intelligence artificielle.

La DGSI rappelle ainsi que « les versions grand public des principaux outils d’IA générative, gratuites et standards, utilisent souvent les données entrées par l’utilisateur pour entraîner leurs modèles », comme indiqué dans la note. Par conséquent, des documents internes, des contrats ou des données stratégiques peuvent être exposés sans que l’entreprise n’en ait conscience. De plus, la Direction générale souligne que ces usages non autorisés concernent notamment la traduction automatique de documents professionnels via des plateformes étrangères.

Intelligence artificielle, biais et erreurs : la DGSI alerte sur les décisions automatisées

Au-delà des fuites d’informations, la note de la DGSI met également en lumière les dangers liés à une confiance excessive accordée à l’intelligence artificielle. En effet, l’IA repose sur des calculs statistiques et non sur une compréhension réelle des contextes métiers. Ainsi, certaines entreprises ont pris des décisions stratégiques erronées en s’appuyant uniquement sur des recommandations générées par des systèmes d’intelligence artificielle.

La DGSI précise que « les IA formulent leurs résultats sur la base de la réponse la plus probable à apporter, statistiquement parlant, et pas nécessairement la plus pertinente ni la plus exacte dans le contexte de la question posée ». Par conséquent, des biais ou des hallucinations peuvent apparaître, entraînant des choix coûteux ou inadaptés. De plus, la DGSI pointe l’absence de vérification humaine, qui accentue ces risques, notamment lorsque l’intelligence artificielle est intégrée dans des processus décisionnels sensibles.

Dans ce contexte, la note de la DGSI insiste sur la nécessité de maintenir un contrôle humain systématique. En effet, même si l’intelligence artificielle peut améliorer la productivité, elle ne doit pas remplacer l’analyse critique des décideurs. Ainsi, l’IA doit rester un outil d’assistance et non une autorité autonome.

Vous avez aimé cet article ? Abonnez-vous à notre Newsletter gratuite pour des articles captivants, du contenu exclusif et les dernières actualités.