Les grandes compagnies d’assurance tirent la sonnette d’alarme : l’intelligence artificielle devient trop imprévisible et dangereuse pour être couverte. Des leaders du secteur comme AIG, Great American et WR Berkley recherchent activement l’approbation des autorités réglementaires pour exclure les responsabilités liées à l’IA de leurs politiques d’entreprise, signalant une crise croissante dans la manière dont les entreprises gèrent les risques liés à l’IA.
Le problème de la « boîte noire »
Le problème central est l’opacité de nombreux modèles d’IA. Les souscripteurs les décrivent comme des « boîtes noires », ce qui signifie que leurs processus décisionnels sont difficiles, voire impossibles, à auditer. Cela crée un écart énorme en matière de responsabilité, car les assureurs ne peuvent pas évaluer avec précision le potentiel d’erreurs ou d’utilisation malveillante. Les conséquences financières de telles erreurs se matérialisent déjà :
- Scandale AI Overview de Google : Une fausse accusation générée par l’IA de Google a conduit à un procès de 110 millions de dollars contre une entreprise solaire en mars.
- L’erreur du chatbot d’Air Canada : La compagnie aérienne a été obligée d’honorer des rabais fabriqués de toutes pièces offerts par son propre chatbot.
- Fraude Arup : Un cadre cloné numériquement a été utilisé dans un appel vidéo deepfake pour voler 25 millions de dollars à une entreprise basée à Londres.
Risque systémique : la vraie menace
Les assureurs ne s’inquiètent pas seulement des incidents isolés ; ils craignent un effondrement systémique. Une seule défaillance de l’IA affectant simultanément des milliers d’entreprises pourrait entraîner des paiements catastrophiques. Un dirigeant d’Aon a expliqué que même si une perte de 400 millions de dollars est gérable, un « incident d’IA agentique » généralisé provoquant 10 000 réclamations simultanées mettrait en faillite même les plus grands assureurs.
Cette non-assurabilité crée une incitation perverse : les entreprises pourraient être moins prudentes à l’égard de l’IA si elles savent que les assureurs ne couvriront pas les conséquences. Le manque de soutien financier pourrait ralentir l’adoption de l’IA ou obliger les entreprises à internaliser des risques pour lesquels elles ne sont pas équipées.
L’avenir du risque lié à l’IA
Cette situation met en évidence une lacune critique dans le paysage actuel de l’IA. À mesure que l’IA devient plus puissante et autonome, elle devient également plus imprévisible. Tant que de meilleures garanties et transparence ne seront pas mises en œuvre, les assureurs hésiteront à couvrir les responsabilités liées à l’IA, laissant les entreprises vulnérables à des pertes potentiellement ruineuses.
L’exclusion des risques liés à l’IA des polices d’assurance est un signal clair : le secteur considère que les dangers sont trop grands pour être ignorés. Cela pourrait être la première étape vers une approche plus prudente et réglementée du déploiement de l’IA dans le monde de l’entreprise.
