Explorez nos services exclusifs de gestion des risques

Groupe stratégique privé
SolutionsCapacitésPlateformesPerspectivesInformation et analyseÀ propos

Recherche

Article

IA : Des Marqueurs Sur La Voie de L'inflexion

20 MARS 2025

/

13 mins de lecture


AI innovation and policy updates

Mises à jour sur l'innovation et les politiques, et implications pour le secteur de la sécurité physique1

En décembre 2024, mon collègue de Crisis24 Nick Hill et moi-même avons prédit que l'IA agentielle deviendrait le thème le plus important de l'IA générative (GenAI) dans le secteur de la sécurité en 2025.2   

Jusqu'à présent, il semble que nous ayons eu raison. Compte tenu du rythme des changements, ce blog fait le point sur trois domaines clés :

· Dernières avancées en matière d'IA

· Derniers développements en matière de politique d'IA

· Impacts de ce qui précède sur la sécurité physique

Progrès de l'IA au premier trimestre 2025

Le rythme de l'innovation en matière d'IA continue de s'accélérer, avec des progrès significatifs en matière de LLM (langage naturel) de la part de laboratoires de base tels qu'OpenAI, Google, Anthropic, Meta et Perplexity. OpenAI a publié GPT-4.5, qui améliore la précision factuelle et les capacités multimodales3, tandis que le modèle Gemini de Google a démontré des capacités de raisonnement supérieures4 dans la prise de décision basée sur l'IA. De même, Claude 3.7 Sonnet d'Anthropic a présenté un raisonnement amélioré5, et Claude Code a amélioré les capacités agentielles, permettant l'exécution autonome de tâches en plusieurs étapes.

Nouveaux entrants dans l'IA : DeepSeek AI (version R1, janvier 2025) et ManusAI (mars 2025) en Chine sont apparus comme des menaces concurrentielles, développant des modèles d'IA très efficaces à moindre coût. Le modèle R1 de DeepSeek rivalise avec GPT-4 à un coût de calcul bien inférieur6, tandis que Manus AI se spécialise dans l'exécution autonome de tâches. Les premières évaluations semblent similaires à celles de la version Claude d'Anthropic, tant en termes de cas d'utilisation que de capacités. Cela dit, certains nouveaux modèles soulèvent des inquiétudes quant aux risques de cybercriminalité et de surveillance liés à l'IA.

Vie privée, cybersécurité et géopolitique

L'émergence de nouveaux acteurs de l'IA a suscité des discussions sur les risques d'espionnage et de cybersécurité liés à l'IA. Les experts politiques américains avertissent notamment que les modèles chinois, notamment DeepSeek7 et Manus8, pourraient faire l'objet de demandes d'accès gouvernementales en vertu des lois chinoises sur la cybersécurité, ce qui présente des risques particuliers pour les entreprises occidentales. Plus généralement, on craint que ces modèles ne soient utilisés pour des cyberattaques automatisées, de la propagande deepfake et des opérations de surveillance à grande échelle.

En réponse, les États-Unis et les pays alliés envisagent de restreindre l'accès aux modèles d'IA étrangers dans les secteurs sensibles, à l'instar des restrictions précédentes sur la technologie Huawei9. Les responsables des achats et de la sécurité des entreprises doivent évaluer soigneusement les décisions d'achat en matière d'IA, en veillant à ce que les outils de sécurité basés sur l'IA soient conformes aux politiques de protection des données et de sécurité nationale.

Mises à jour des politiques en matière d'IA et implications pour le secteur de la sécurité physique

L'évolution du Paysage Politique de l'IA

La gouvernance de l'IA est devenue une priorité absolue pour les gouvernements et les entreprises, les développements majeurs du dernier trimestre ayant façonné l'environnement réglementaire. Le Sommet de Paris sur l'IA, qui s'est tenu en février 2025, a marqué un changement par rapport aux discussions précédentes sur la sécurité de l'IA, en mettant l'accent sur l'adoption de l'IA, l'inclusivité et l'impact économique. La France a mené l'initiative, en obtenant 109 milliards d'euros d'investissements dans l'IA, mais les États-Unis et le Royaume-Uni se sont notamment abstenus de signer la déclaration finale, faisant part de leurs préoccupations concernant les contraintes multilatérales sur l'innovation en matière d'IA. L'Union européenne a continué à faire avancer sa loi sur l'IA, visant à équilibrer l'innovation avec une réglementation stricte, tandis que les États-Unis, sous la nouvelle administration, ont privilégié une approche réglementaire souple pour maintenir leur leadership mondial en matière d'IA.

Aux Nations Unies, les discussions sur la gouvernance de l'IA gagnent du terrain. Le Pacte mondial sur la numérisation de l'ONU et le projet de Panel scientifique international sur l'IA visent à apporter une perspective mondiale structurée à la gouvernance de l'IA, en abordant la souveraineté des données, les risques de sécurité et l'accès équitable à l'IA. Parallèlement, la Chine a élargi son cadre réglementaire national en matière d'IA, exigeant l'approbation de l'État pour les modèles d'IA générative et suscitant des inquiétudes quant au contrôle du gouvernement sur le développement et le déploiement de l'IA.

Le contexte international décrit ci-dessus en 2025 fait suite à un renforcement de la législation nationale américaine en 2024. Nous en donnons quelques exemples ci-dessous. Notez que certains experts prévoient que la nouvelle administration américaine offrira plus de flexibilité dans la mise en œuvre (par exemple, des bonnes pratiques volontaires plutôt que des règles prescriptives) - en particulier lorsque la sécurité nationale ou les infrastructures critiques sont moins préoccupantes.

· En 2024, la FTC a tenu son premier sommet consacré à l'IA et a averti qu'elle appliquerait les lois de protection des consommateurs contre les systèmes d'IA biaisés ou portant atteinte à la vie privée.10

· Le département de la Sécurité intérieure (DHS) a publié en novembre 2024 un cadre historique visant à assurer le déploiement sûr et sécurisé de l'IA dans les secteurs critiques.11

  • En 2024, au moins 45 États ont présenté des projets de loi et 31 États et territoires ont effectivement promulgué des lois ou des résolutions relatives à l'IA.12
  • Le National Institute of Standards and Technology (NIST) a publié un cadre de gestion des risques liés à l'IA pour guider les organisations dans le développement de systèmes d'IA fiables et éthiques.13

Politique d'entreprise en matière d'IA et implications pour les acheteurs

La gouvernance de l'IA dans le secteur privé a également évolué. OpenAI, Google et Microsoft ont mis en œuvre des engagements volontaires en matière de sécurité de l'IA, notamment une équipe rouge rigoureuse pour les risques, le marquage des contenus générés par l'IA et des audits externes des capacités de l'IA. Cependant, les entreprises technologiques ont simultanément fait pression contre une réglementation excessive, arguant que des contraintes excessives entravent l'innovation et sapent la compétitivité.

Pour les équipes de sécurité et de gestion des risques des entreprises, ces changements de politique ont des implications directes. La loi européenne sur l'IA, par exemple, impose la transparence et l'évaluation des risques pour les systèmes de surveillance et de prise de décision basés sur l'IA, ce qui a un impact sur les CSO et les GSOC qui déploient des opérations de sécurité améliorées par l'IA. L'assouplissement de la réglementation aux États-Unis pourrait accélérer l'adoption de l'IA, mais soulève des inquiétudes quant à l'incohérence des cadres de conformité mondiaux.

Prévisions politiques : les 12 à 24 prochains mois

  • Divergence des blocs réglementaires en matière d'IA : les États-Unis devraient maintenir une stratégie d'IA favorable à l'innovation et axée sur le marché, tandis que l'UE peaufine la mise en œuvre de sa loi sur l'IA, dans l'espoir d'éviter d'étouffer l'adoption par les entreprises. La Chine va probablement étendre le contrôle de l'État sur le déploiement de l'IA et faire pression pour l'adoption internationale de ses propres modèles de gouvernance de l'IA.
  • Collaboration internationale sur la sécurité de l'IA : les discussions mondiales pourraient aboutir à des normes de sécurité volontaires pour les modèles d'IA de pointe, en particulier pour les risques liés à la cybersécurité et à la sécurité nationale. La pression exercée par l'ONU en faveur de programmes de renforcement des capacités en matière d'IA pourrait entraîner une adoption plus large dans les pays en développement.
  • Impact sur la sécurité physique : les changements de politique en matière d'IA auront une incidence sur l'adoption des solutions de sécurité basées sur l'IA à l'échelle mondiale, notamment l'exigence de classification des risques (loi européenne sur l'IA) et l'interdiction de certains modèles. Les OSC et leurs équipes d'approvisionnement doivent suivre l'évolution de la réglementation, s'assurer que les solutions d'IA sont conformes aux cadres juridiques en constante évolution et adapter les stratégies de sécurité aux normes internationales de gouvernance de l'IA.

Applications pratiques pour les CSO et les GSOC

Bien entendu, les développements susmentionnés en matière d'innovation et de politique ne se produisent pas dans le vide. Le début de l'année 2025 a entraîné des changements stratégiques et tactiques sismiques dans l'environnement commercial et sécuritaire : le rôle des États-Unis à l'échelle internationale ; le rôle des alliances et l'avenir de l'OTAN ; la Chine-Taïwan ; les droits de douane et le protectionnisme ; les nouvelles phases en Ukraine, en Israël, au Liban et en Russie ; et les incendies en Amérique latine.

Dans ce contexte dynamique, les récentes avancées de l'IA offrent des possibilités de transformation des opérations de sécurité des entreprises :

  • Renseignement sur les menaces alimenté par l'IA : l'IA peut désormais traiter des flux de données de sécurité à grande échelle, détecter les anomalies et fournir des alertes de risque en temps réel basées sur une évaluation des menaces alimentée par le LLM.
  • Réponse de sécurité autonome : les capacités de l'IA agentielle permettront bientôt d'automatiser les flux de travail de sécurité, tels que la reconnaissance des menaces par caméra, le contrôle d'accès intelligent et la communication de crise assistée par l'IA.
  • Surveillance améliorée et connaissance de la situation : l'IA multimodale avancée peut analyser simultanément des entrées vidéo, audio et textuelles, améliorant ainsi la détection des incidents et la vitesse de réponse dans les GSOC.
  • Défense de la cybersécurité basée sur l'IA : les plateformes de sécurité basées sur l'IA peuvent identifier les cybermenaces sophistiquées, signalant les comportements inhabituels avant que les violations ne se produisent.

Défis : malgré son potentiel de transformation, l'IA en matière de sécurité présente encore des vulnérabilités. Les responsables de la sécurité avisés - et notre industrie en général - doivent les traiter une par une :

  • Fiabilité et hallucinations : les LLM tels que GPT-4.5 se sont améliorés, mais génèrent encore des faux positifs ou interprètent mal les données de sécurité.
  • Données privées et risques de conformité : l'utilisation de modèles d'IA provenant de sources non réglementées peut enfreindre le RGPD, le CCPA ou les lois nationales sur la cybersécurité, ce qui nécessite une gouvernance stricte des flux de données d'IA.
  • Dépendance excessive à l'IA et biais d'automatisation : les équipes de sécurité doivent maintenir une surveillance humaine pour éviter de faire une confiance mal placée dans la prise de décision basée sur l'IA.
  • Exploitation de l'IA par des adversaires : les acteurs malveillants peuvent utiliser l'IA pour contourner les systèmes de sécurité par le biais de cyberattaques générées par l'IA ou de manipulations d'entrées par des adversaires.

L'avenir de l'IA dans le domaine de la sécurité

Le secteur de la sécurité se trouve à un moment charnière : l'IA offre de nouvelles capacités puissantes, mais celles-ci doivent être déployées de manière responsable et sécurisée. Les professionnels de la sécurité - et notre secteur plus largement - doivent trouver un équilibre entre l'automatisation basée sur l'IA et l'intelligence humaine, garantir la conformité avec les réglementations en constante évolution en matière d'IA et surveiller de près les risques géopolitiques liés à l'adoption de l'IA. Au cours des 12 à 24 prochains mois - y compris l'émergence prochaine de l'intelligence artificielle générale (IAG) - les outils de sécurité basés sur l'IA deviendront plus autonomes, rendant la planification proactive de la sécurité essentielle pour les responsables de la gestion des risques.

Chez Crisis24, nous restons à la pointe de l'évolution de l'IA agentique, en aidant les organisations à libérer tout son potentiel. Laissez-nous vous guider dans l'intégration de ces systèmes révolutionnaires dans vos cadres de sécurité et de gestion des risques.

1 Plusieurs modèles d'IA générique ont été utilisés dans le développement de ce blog, y compris en dirigeant plusieurs modèles pour qu'ils argumentent « contre » les autres. Nous conseillons la transparence dans l'utilisation de l'IA générique et cherchons à l'illustrer ici.

2 Notre prédiction pour décembre: The Inflection Point: Agentic AI in the Evolution of Security and Risk Management

3 Performances de GPT-4.5: GPT 4.5 Released: Here are the Benchmarks; Everything You Need to Know About OpenAI’s GPT-4.5

4 Performances de Gemini: Introducing Gemini: Our Largest and Most Capable AI Model

5 Performances de Claude 3.7: Anthropic’s New ‘Hybrid Reasoning’ AI Model is its Smartest Yet

6 Dans cette note de bas de page, nous apportons une nuance à un trope courant, qui dit quelque chose comme « DeepSeek a bouleversé les hypothèses concernant l'investissement de plusieurs milliards nécessaire à la construction de ces modèles. » En réalité, DeepSeek transférerait l'expertise des grands modèles de base vers son propre système en utilisant la distillation des connaissances, en entraînant un modèle plus petit sur des données synthétiques de haute qualité générées par des modèles établis, évitant ainsi la nécessité d'un entraînement massif à partir de zéro. Ensuite, DeepSeek affine ces connaissances distillées grâce à un processus d'apprentissage par renforcement en plusieurs étapes. Cette combinaison permet à DeepSeek d'atteindre des performances comparables à celles des meilleurs modèles américains à un coût bien moindre, mais ces performances ne seraient pas possibles sans l'existence des modèles de base américains.

7  Why DeepSeek is Sparking Debates Over National Security, Just Like TikTok;pour d'autres préoccupations concernant R1, veuillez consulter : Vulnérabilité aux invites malveillantes, ici: DeepSeek’s Safety Guardrails Failed Every Test Researchers Threw at Its AI Chatbot; Susceptibilité aux techniques de jailbreak, ici: DeepSeek RI Exposed – Security Flaws in China’s AI Model; exposition de données sensibles, ici: Wiz Research Uncovers Exposed DeepSeek Database Leaking Sensitive Information, Including Chat History; Chain-of-Thought Reasoning Exploitation, ici: Exploiting DeepSeek-R1: Breaking Down Chain of Thought Security

8 Manus AI : critiques élogieuses – China’s New AI Agent Manus Calls its Own Shots; Manus AI and China-related Security Concerns: AI Agent Manus Sparks Debate on Ethics, Security and Oversight

9 Exemple de restrictions de politique sur DeepSeek: US Mulling a Ban on Chinese App DeepSeek From Government Devices, Source Says

10 FTC Gears Up for AI Enforcement: No Brakes in Sight

11 Groundbreaking Framework for the Safe and Secure Deployment of AI in Critical Infrastructure Unveiled by Department of Homeland Security

12 Artificial Intelligence 2024 Legislation

13 Ibid. 

AIGUISEZ VOTRE 
VISION DU RISQUE

Abonnez-vous à notre infolettre pour recevoir les dernières perspectives de nos analystes, à chaque semaine.

INFORMATION, ANALYSES ET PERSPECTIVES


UNE INFORMATION ET 
UNE ANALYSE DE VALEUR

Avec son équipe globale de plus de 200 analystes, Crisis24 est la seule source requise d’informations utiles et exploitables sur tout sujet lié au risque.