Le 29 janvier 2026, l’ACIFA a organisé un webinaire intitulé L’IA est là. Et maintenant? Guide pratique pour désapprendre et réapprendre l’assurance. Le directeur général de l’ACIFA, Keith Martin, a entamé la séance. Il a remercié les participants et a présenté Robyn Jennings, analyste principale de recherche et de politiques à l’ACIFA. À son tour, elle a présenté le conférencier principal, Tatenda Manjengwa, vice-président directeur de la stratégie en matière d’IA et de la gestion des produits dans le secteur des services financiers.
M. Manjengwa est un expert reconnu dans le domaine de l’IA. Il transforme les technologies émergentes en solutions prêtes à l’emploi dans des environnements fortement réglementés. Dans le cadre de ses fonctions précédentes de directeur général et de responsable du laboratoire d’innovation en IA de BMO Gestion de patrimoine, il a piloté la mise en œuvre de l’IA à l’échelle de l’entreprise pour plus de 5 000 employés. Il a lancé Rovr AI, le premier assistant d’IA générative destiné au public canadien et dédié à la souscription d’assurances, et a mis en place des cadres de gouvernance au sein de BMO Gestion privée, BMO Gestion mondiale d’actifs, BMO Assurance et BMO Ligne d’action. M. Manjengwa possède plus de 20 ans d’expérience dans les marchés de capitaux et la gestion de patrimoine chez BMO, Bloomberg, Citibank et Deutsche Bank. Son travail touche à la fois la stratégie de produits d’IA, la finance quantitative et l’innovation commerciale. Il a dirigé des équipes pluridisciplinaires composées de scientifiques et d’ingénieurs spécialisés dans les données. Ses équipes ont mis en place des flux de travail optimisés par le traitement du langage naturel (NLP) et l’intelligence artificielle (IA) sur des plateformes multinuage sécurisées et évolutives, ce qui a permis d’améliorer l’expérience client et de réduire les coûts d’exploitation.
M. Manjengwa détient un MBA de la Chicago Booth School of Business et une maîtrise en analyse de données et intelligence artificielle de la NYU Stern School of Business. Passionné par l’apprentissage continu, il poursuit actuellement ses études en vue d’obtenir une troisième maîtrise, en informatique, au Georgia Institute of Technology.
Après l’introduction, R. Jennings a souhaité la bienvenue à plusieurs invités de marque, notamment
les 14 entreprises membres et les 14 entreprises associées de l’ACIFA; des associations sectorielles connexes, telles que l’Association canadienne des compagnies d’assurances de personnes (ACCAP) et l’Association canadienne de l’assurance voyage (ACAV); et des représentants de divers organismes de réglementation des assurances et des services financiers ainsi que d’organismes d’élaboration des politiques, dont :
- Alberta Insurance Council
- Gouvernement de l’Alberta
- Conseil du Trésor et le ministère des Finances de l’Alberta
- Autorité des marchés financiers (AMF)
- British Columbia Financial Services Authority (BCFSA)
- Ministère des Finances de la Colombie-Britannique
- Insurance Council of BC
- Agence de la consommation en matière financière du Canada (ACFC)
- Autorité ontarienne de réglementation des services financiers (ARSF)
- Insurance Council of Manitoba;
- Insurance Councils of Saskatchewan
Pour lancer la discussion, R. Jennings a demandé à T. Manjengwa de faire le point sur la place de l’IA dans le secteur des services financiers. Il a décrit la situation très clairement : L’IA est là, mais le travail consiste désormais à transformer cet engouement en résultats financiers concrets. L’industrie passe désormais de la phase d’expérimentation à celle de l’industrialisation : des projets pilotes ponctuels à une chaîne de production IA rigoureuse et évolutive, capable de produire des résultats concrets, et non seulement de simples idées. Il a qualifié ce phénomène de transition entre la curiosité envers l’IA à la maîtrise de l’IA. Il a ajouté que la question fondamentale n’est pas de savoir comment utiliser l’IA pour faire ce que les entreprises font déjà, mais plutôt de déterminer ce qui devient possible et qui était auparavant inimaginable, et si les organisations se préparent à se poser sérieusement cette question.
Il a fait remarquer que le Canada performe bien au-delà des attentes : Manuvie occupe la cinquième place parmi les 30 principaux assureurs au classement mondial de maturité en matière d’IA établi par Evident, et fait partie des trois seules entreprises à figurer au palmarès des 10 meilleures dans toutes les catégories évaluées. L’occasion à saisir est bien réelle. La question est de savoir si les organisations ont mis en place les structures nécessaires pour la saisir.
T. Manjengwa a précisé que lorsqu’il parle d’IA, il désigne concrètement les modèles d’apprentissage automatique, dont l’IA générative. Il a insisté sur l’importance d’une approche intentionnelle et disciplinée pour les entreprises qui déploient ces technologies à grande échelle. L’objectif est de passer d’une petite équipe d’ingénieurs en IA qui maîtrisent les outils à une intégration de ces capacités à tous les échelons de l’entreprise. Selon lui, cette évolution structurelle permettra de distinguer les entreprises qui progressent de celles qui stagnent.
R. Jennings a demandé comment les dirigeants pouvaient intégrer l’IA dans des systèmes classiques fortement implantés. T. Manjengwa a répondu : « Nous ne sommes pas prisonniers de nos systèmes classiques, mais prisonniers des idées qui nous ont menés jusqu’ici. » Ces systèmes ont été conçus pour répondre aux besoins des institutions financières d’une autre époque. Ils ont été utiles, mais la logique de fonctionnement doit changer. Il a proposé une approche en trois phases :
- Phase de préparation : un diagnostic complet pour cartographier les systèmes actuels, déterminer les éléments essentiels au bon fonctionnement de l’entreprise et évaluer le coût et la faisabilité d’une modernisation.
- Phase d’intégration : des déploiements ciblés pour déterminer la valeur ajoutée, révéler les compromis (formation, infrastructure, baisses temporaires de productivité) et valider le modèle avant un déploiement à grande échelle.
- Optimisation continue : surveiller, perfectionner et répéter. Le potentiel de l’IA est un système évolutif, et non un projet figé.
Lorsqu’on lui a demandé ce que les assureurs doivent désapprendre en premier, T. Manjengwa a cité Alvin Toffler, selon qui, les personnes instruites du 21e siècle seront celles qui sauront apprendre, désapprendre, puis réapprendre. Il a répondu sans détour : L’IA n’est pas une conversation parallèle aux activités de l’entreprise, mais bien la conversation qui définit ces activités. Trois désapprentissages particuliers ont suivi : l’idée que l’IA est un problème technologique que doivent résoudre les scientifiques des données (il s’agit en fait d’une transformation organisationnelle qui nécessite une refonte des processus de travail et une gestion du changement); l’idée que la certitude est nécessaire avant toute action (ce n’est pas le cas dans des environnements aussi dynamiques); et l’idée qu’une culture axée sur les projets pilotes suffit (c’est le piège dans lequel la plupart des entreprises tombent). Il a fait remarquer que la numérisation échoue lorsque des outils de pointe sont superposés à des processus analogiques et redondants. Les dirigeants doivent comprendre que la gestion du changement n’est pas une partie de leur travail, mais bien la totalité de leur travail. Il a averti que si l’IA est déployée uniquement pour reproduire les processus actuels, alors les contraintes d’aujourd’hui risquent d’être transposées dans les systèmes de demain.
L’IA nous façonne autant que nous la façonnons.
Quant à la question de trouver un équilibre entre l’aversion au risque et la nécessité d’expérimenter, T. Manjengwa a recommandé la prudence : une approche intelligente et méthodique, associée à des mesures de protection adéquates, permet aux dirigeants de concilier risque et innovation. Il est essentiel de maintenir un dialogue avec les organismes de réglementation. La mise au point des mesures de protection relatives à l’IA nécessitera la participation de nombreux intervenants. Les entreprises doivent également s’assurer de recruter les bonnes personnes pour les bons postes. L’IA est un domaine complexe, et la réussite repose sur des équipes compétentes et talentueuses.
En ce qui concerne les qualités à privilégier lors du recrutement, il en a retenu deux : la curiosité et la modestie. La curiosité favorise l’expérimentation et l’innovation; la modestie permet de corriger le tir lorsque les résultats ne sont pas satisfaisants. Associées à de solides connaissances, ces qualités permettent au personnel d’une organisation d’apprendre, de réapprendre et de désapprendre au rythme où la technologie évolue.
En ce qui concerne la gouvernance réglementaire, T. Manjengwa a encouragé le passage d’une approche axée sur la conformité et la surveillance à une approche axée sur la co-création authentique entre le secteur et les organismes de réglementation. Les organismes de réglementation devront mieux connaître les modèles économiques afin de faire en sorte que les règles favorisent l’innovation responsable au lieu de la freiner. Il a recommandé la même rigueur des talents du côté des organismes de réglementation, soit les bonnes personnes pour les bons postes.
R. Jennings a soulevé la question du remplacement des humains par l’IA et a demandé où le jugement humain devait être conservé. T. Manjengwa a répondu que les grands modèles de langage (GML) sont, par nature, probabilistes et nécessitent une intervention humaine, en particulier lorsqu’il s’agit de traiter des informations financières et de prendre des décisions défavorables. Il a cité les récents commentaires de Satya Nadella à Davos et a souligné que la valeur réelle réside dans le fait d’ancrer ces modèles dans le contexte propre à chaque entreprise, mais qu’il ne s’agit là que d’un élément parmi d’autres, et non de la réponse définitive. L’IA doit être perçue comme un outil qui vient renforcer le jugement humain et non le remplacer. Libérer les experts des tâches monotones, comme résumer un document de 60 pages, leur permet de se concentrer sur les sujets complexes, les points à débattre et les aspects déterminants. Selon lui, la véritable question n’est pas de savoir ce que l’IA est capable de faire, mais ce que nous sommes prêts à lui confier et, tout aussi important, ce que nous refusons de lui céder.
Au sujet de la décomposition du travail, T. Manjengwa a expliqué que les rôles traditionnels sont décomposés en tâches distinctes. L’IA assure l’analyse structurée, tandis que les humains se concentrent sur le jugement, les relations et les cas complexes. Il a cité la récente description faite par le chef de la direction de McKinsey, à propos d’une organisation qui compte 40 000 personnes et 25 000 agents et le fait que, dans la pratique, les gestionnaires devront de plus en plus coordonner les deux. L’exemple de l’expert en sinistres illustre bien cette idée : L’IA automatise la réception des réclamations et l’estimation des dommages; l’humain peut ainsi se consacrer aux cas conflictuels et complexes. Les emplois ne disparaissent pas, mais ils évoluent, et les compétences que les entreprises recherchent doivent évoluer en conséquence.
Selon lui, la transformation fondamentale n’est pas dans la manière dont les assureurs effectuent leur travail, mais dans ce que ce travail en soi devient. McKinsey a présenté cette évolution comme le passage d’une approche de « détection et correction » à une approche de « prévision et prévention » : d’une entreprise qui indemnise les pertes après coup à une entreprise qui utilise des données en continu pour les prévenir. Produits paramétriques, surveillance des risques en temps réel, prévention comme source de revenus : il ne s’agit pas là de domaines connexes à l’assurance, mais de ce que l’assurance est en train de devenir. La fragmentation des tâches n’est que le symptôme opérationnel, tandis que la refonte de la proposition de valeur est au cœur du processus.
Ce qui suit est une refonte du recrutement, car il ne s’agit pas de réduire la prochaine génération de professionnels à de simples gestionnaires d’exceptions. Les postes doivent être conçus pour mettre à profit les compétences propres à l’être humain, comme le jugement, l’empathie et le raisonnement complexe, et de les associer à une utilisation experte de l’IA.
À la question de savoir qui est responsable lorsque l’IA prend ou influence une mauvaise décision, T. Manjengwa a été clair : la responsabilité incombe à l’équipe et à l’organisation, et non à une seule personne. Le fait de constituer des équipes interdisciplinaires, qui réunissent des experts en affaires, en réglementation et en technologie, est ce qui permet de défendre l’IA. Il y aura toujours un responsable de l’analyse, mais les réussites et les échecs doivent appartenir à tout le groupe. Quand l’IA réussit, il s’agit d’un travail d’équipe; quand elle échoue, la même logique s’applique.
Quant à ce que les entreprises doivent à leurs clients, il s’est montré catégorique : une transparence totale sur la manière dont les données sont utilisées et sur les cas où l’IA intervient. Dans le secteur des services financiers, la transparence n’est pas facultative.
R. Jennings a demandé pourquoi tant de programmes d’IA échouent. T. Manjengwa a évoqué le récent rapport Networked Agents and Decentralized Architecture (NANDA) du MIT, qui a révélé que 95 % des projets pilotes d’IA générative ne produisent aucun effet mesurable sur les profits et les pertes. La cause profonde tient au modèle de mise en œuvre : les équipes se lancent à la poursuite de cas d’utilisation spectaculaires plutôt que de résoudre de véritables problèmes opérationnels et elles tentent de le faire sans l’aide de partenaires expérimentés. La conclusion est double : il faut résoudre un véritable problème commercial et ne pas commencer à la case départ. La collaboration avec des fournisseurs et des consultants est une force, et non une faiblesse. Il a cité l’exemple du projet d’IA Rovr chez BMO, qui reposait largement sur Microsoft, non pas par manque de talents à l’interne, mais parce que ce domaine était nouveau pour tout le monde.
Pour conclure le webinaire, R. Jennings a demandé ce qui permettrait de déterminer qu’un assureur est passé du stade de la simple curiosité envers l’IA à celui de la maîtrise de cette technologie. T. Manjengwa a mentionné plusieurs critères : une approche structurée et rigoureuse de la mise en œuvre, qui a évolué au-delà des cas d’utilisation pour devenir une philosophie d’apprentissage et d’expérimentation durables; des données concrètes sur l’adoption (par exemple, Manuvie a affiché un taux d’adoption des outils d’IA de 75 % au sein de son personnel après des années d’investissement régulier); et une collaboration active avec les organismes de réglementation. Il a aussi mentionné le cadre réglementaire à venir : la ligne directrice E-23 du BSIF, sur la gestion du risque de modélisation, entrera en vigueur le 1er mai 2027 et s’appliquera à toutes les institutions financières sous réglementation fédérale. La récente étude ACIFA-Deloitte indique que plus de 60 % des assureurs s’attendent à ce que l’IA influence considérablement la souscription et le traitement des réclamations. Il est donc évident que le passage d’une attitude de simple curiosité à une véritable maîtrise de cette technologie est désormais un impératif pour l’ensemble du secteur.
T. Manjengwa a conclu par une citation de John Schaar : « L’avenir n’est pas un endroit où nous allons, mais un endroit que nous créons. Les chemins ne se trouvent pas, ils se tracent. Et le fait de les tracer transforme à la fois celui qui les trace et la destination. » Enfin, selon lui, il ne s’agit pas simplement d’adopter des outils, mais de les harmoniser avec une vision claire du type de structures vers lesquelles ce secteur s’oriente. Ce sont là des questions d’identité, de courage et d’imagination. Nos réponses façonneront nos vies à long terme, bien après que les outils d’aujourd’hui auront évolué.

