CRE s’entretient avec Aaron Belair, head of liability, ProFin, Technology, RSA Europe sur les risques auxquels sont confrontées les entreprises technologiques en Europe et sur le lancement de la nouvelle solution technologique de l’assureur.
Suite à l’acquisition de RSA par Intact en 2021, nous avons élargi nos activités mondiales d’assurance spécialisée afin de tirer parti des capacités et de l’expertise dans les différentes régions et de mieux servir nos clients. En Amérique du Nord, nous sommes au service de l’industrie technologique depuis plus de 25 ans et nous sommes ravis de la lancer en Europe à un moment charnière pour l’industrie, alors que les clients du secteur technologique ont besoin de partenaires d’assurance aussi dynamiques qu’eux.
Nous disposons d’une expertise approfondie dans les domaines de l’assurance dommages, de la responsabilité civile professionnelle et de la cyber-assurance, et il s’agit là d’une solution tout en-un. Très souvent, les pertes pécuniaires subies par les clients constituent le principal risque pour les fournisseurs de technologie. Par ailleurs, les cyber-risques, impactant les victimes d’évènements cybernétiques mais également les tiers, ne cessent d’évoluer.
Ces risques pour les fournisseurs de technologie s’accompagnent souvent de lignes floues lorsqu’il s’agit de couverture d’assurance. Des polices distinctes peuvent entraîner des lacunes dans la couverture et des litiges en matière de réclamations.
Avec notre produit Information Technology Solutions (ITS), nous offrons à nos clients la possibilité d’assurer leurs risques avec une seule police et un seul partenaire d’assurance, atténuant toute lacune de couverture et éliminant la nuisance de plusieurs parties gérant la même réclamation.
Les entreprises technologiques sont confrontées à une série de risques qui découlent du rythme rapide de l’innovation, de la complexité des opérations mondiales et de la surveillance réglementaire croissante.
Il y a tout d’abord les risques liés à la cybersécurité et à la confidentialité des données, qui résultent des défaillances des systèmes, des violations de la vie privée et des cyberattaques.
Il y a aussi les risques liés à la chaîne d’approvisionnement et aux fournisseurs, qui découlent de la dépendance à l’égard de tiers et des perturbations potentielles des chaînes d’approvisionnement.
Enfin, il existe des risques géopolitiques et économiques liés à l’évolution des réglementations, aux tensions géopolitiques et aux plans d’expansion mondiale des entreprises.
En s’attaquant de manière proactive à ces risques par le biais de mesures de sécurité robustes, de plans de continuité des activités et de stratégies de conformité, les entreprises peuvent relever les défis et continuer à innover tout en protégeant leur viabilité à long terme.
Les entreprises technologiques européennes sont confrontées à une série de réglementations importantes qui ont un impact à la fois sur leurs activités et sur leurs besoins en matière d’assurance. Les principaux domaines sont les suivants : RGPD, la directive ePrivacy et la loi européenne sur la cybersécurité. Le thème commun est la protection de la vie privée et des données. Le produit Information Technology Solutions de RSA offre une large couverture pour les amendes réglementaires liées à la protection de la vie privée.
L’industrie technologique est au début d’un cycle d’expansion qui est stimulé par l’IA. La technologie offrira d’immenses possibilités grâce au développement de produits, à l’efficacité opérationnelle et à la transformation de la main d’œuvre.
Mais parallèlement, de nouveaux risques importants en matière de responsabilité apparaîtront. Un exemple très intéressant est l’élément de jugement lorsqu’on compare un humain à l’IA. Si l’on prend l’exemple des véhicules autonomes, on peut affirmer qu’un système d’IA peut détecter un objet sur la route et réagir plus rapidement qu’un humain. Supposons qu’il y ait deux objets sur la route, un arbre et un enfant. Un humain peut facilement prendre cette décision, mais l’IA d’aujourd’hui sait-elle faire la différence ?
À mesure que les systèmes d’IA prennent des décisions autonomes, la détermination de la responsabilité en cas d’erreur, de défaillance ou de préjudice devient plus complexe. Si un système d’IA cause des dommages ou des préjudices, comme dans le cas des véhicules autonomes ou de l’IA dans le domaine de la santé, les entreprises peuvent avoir du mal à déterminer qui est légalement responsable - le système d’IA lui-même, les développeurs ou l’entreprise qui a déployé le système.
Un autre risque est l’impact de l’IA sur les violations de données. Ces systèmes nécessitent de grandes quantités de données, ce qui accroît leur vulnérabilité aux violations de données. D’autre part, de mauvais acteurs peuvent déployer des systèmes d’IA pour accéder à des informations privées, en particulier si les mécanismes de stockage et de traitement des données ne sont pas suffisamment sécurisés.
En termes de réglementation, les gouvernements du monde entier introduisent des règles visant spécifiquement l’IA. L’UE a proposé la loi sur l’IA, qui classe les systèmes d’IA en fonction des risques et impose des exigences strictes aux applications à haut risque.
Enfin, l’IA peut être utilisée à des fins contraires à l’éthique, telles que la surveillance, la manipulation ou la désinformation. Par exemple, les vidéos, images ou audios générés par l’IA ou les bots automatisés peuvent diffuser des informations erronées, nuisant à la confiance du public ou provoquant des troubles sociaux. Les entreprises qui utilisent l’IA doivent prendre des mesures pour s’assurer que leurs systèmes ne sont pas utilisés à mauvais escient ou qu’ils n’aboutissent pas à des résultats préjudiciables.