L’intelligence artificielle en entreprise progresse à grande vitesse. Automatisation des tâches, aide à la décision, gains de productivité : les promesses sont nombreuses. Mais derrière cet engouement, les dérives se multiplient. Dans son dernier bulletin « Flash ingérence », la DGSI met en garde les organisations françaises en exposant trois cas réels illustrant les risques liés à l’usage non encadré de l’intelligence artificielle dans le monde professionnel.
Intelligence artificielle en entreprise : des usages qui échappent au contrôle
La DGSI publie régulièrement ses « Flash ingérence » afin de sensibiliser les entreprises françaises aux menaces économiques et numériques. Le dernier numéro s’intéresse tout particulièrement à l’usage de l’intelligence artificielle en entreprise, devenu courant, parfois sans cadre clair ni gouvernance adaptée.
À travers trois situations concrètes, le service de renseignement intérieur montre comment des outils d’IA, pourtant conçus pour améliorer l’efficacité, peuvent exposer les organisations à des risques juridiques, financiers ou stratégiques.
Des documents confidentiels transmis à une IA générative grand public
Premier exemple : des salariés d’une entreprise française stratégique ont utilisé un outil d’intelligence artificielle générative grand public pour traduire des documents internes confidentiels. L’alerte a été donnée par le directeur des systèmes d’information, après avoir constaté que des données sensibles étaient injectées dans une solution développée par une société étrangère.
L’enquête interne a révélé que ces pratiques étaient devenues régulières, sans validation hiérarchique. La direction a rapidement imposé une solution d’IA payante, encadrée contractuellement, et lancé un travail de fond pour définir une politique interne d’usage de l’intelligence artificielle.
La DGSI rappelle que les versions gratuites de nombreux outils d’IA utilisent les données saisies par les utilisateurs pour entraîner leurs modèles. Pire encore, certaines politiques de confidentialité prévoient un stockage des données hors de l’Union européenne, exposant les entreprises françaises à des législations étrangères et à des risques d’ingérence économique.
Quand l’IA influence seule les décisions stratégiques
Deuxième cas étudié : une entreprise française en pleine expansion internationale a confié l’évaluation de ses partenaires commerciaux à un outil d’intelligence artificielle. Cette procédure de « due diligence » automatisée visait à limiter les risques juridiques et réputationnels.
Problème : par manque de temps et de vigilance, aucune vérification humaine complémentaire n’était réalisée. Les décisions étaient systématiquement prises sur la base des résultats fournis par l’outil.
La DGSI souligne ici un biais majeur de l’intelligence artificielle en entreprise : les systèmes produisent des réponses statistiquement probables, mais pas nécessairement exactes ni pertinentes dans un contexte donné. Cette dépendance excessive peut conduire à une perte de contrôle, à des décisions erronées et à une illusion de sécurité.
Deepfake : une nouvelle menace pour les entreprises françaises
Troisième situation, particulièrement inquiétante : une tentative d’escroquerie par deepfake. Le responsable d’un site industriel a reçu un appel en visioconférence d’un individu se faisant passer pour le dirigeant du groupe. Apparence, voix, comportement : tout semblait authentique.
L’interlocuteur a rapidement exigé un transfert de fonds urgent. Troublé par cette demande inhabituelle, le responsable a mis fin à l’échange et alerté sa direction. Il a ainsi évité une fraude reposant sur l’association d’images et de voix générées par intelligence artificielle.
Pour la DGSI, ces pratiques illustrent l’émergence de nouvelles formes d’ingérence mêlant IA, manipulation de l’information et spear phishing. Le volume de deepfakes en circulation aurait été multiplié par plus de dix entre 2023 et 2025.
Des gains de productivité… mais une gouvernance encore fragile
L’adoption de l’intelligence artificielle en entreprise est massive : près de 80 % des entreprises mondiales y ont recours dans au moins une fonction. Les gains de productivité peuvent dépasser 50 %. Pourtant, en Europe, près d’un tiers des organisations ne disposent toujours pas de politique formelle encadrant l’usage de l’IA.
Ce décalage entre adoption technologique et gouvernance expose les entreprises à des risques accrus : fuites de données, biais décisionnels, atteintes à la réputation et vulnérabilités cyber.
Encadrer l’intelligence artificielle en entreprise devient indispensable
Face à ces constats, la DGSI appelle les entreprises françaises à structurer leurs usages. Cela passe par la définition de règles claires, la formation régulière des équipes, la vigilance sur les données partagées et la préférence pour des solutions d’intelligence artificielle maîtrisées, voire développées localement.



