Big data & I.A.

Quel usage pour l’IA dans la finance

Par
FineDigit
le
9/2/2019

Le superviseur des banques et des assureurs, l’ACPR, publie un rapport et lance une consultation publique sur les usages de l’intelligence artificielle dans la finance.

Le superviseur des banques et des assureurs, l’ACPR, publie un rapport et lance une consultation publique sur les usages de l’intelligence artificielle dans la finance. Jugée prometteuse, la technologie pose aussi des risques de discrimination par les algorithmes et accroît les enjeux de cybersécurité.

Du chatbot qui répond dans l’appli mobile aux questions des clients d’Orange Bank à l’analyseur de courrier électronique pour les conseillers du Crédit Mutuel, en passant par les outils de traduction automatique ou de détection de fraude et les robo-advisors dans la gestion de patrimoine : l’intelligence artificielle (IA) se déploie un peu partout dans la finance. C’est la raison pour laquelle la Banque de France a créé il y a quelques mois une taskforce sur l’IA, composée d’acteurs de la place et d’autorités publiques pour en étudier les enjeux. Le pôle Fintech de l’Autorité de contrôle prudentiel et de résolution (ACPR, superviseur adossé à la Banque de France) a rendu public le 20 décembre 2018, un document de réflexion abordant les opportunités et les risques du déploiement de l’IA, à l’occasion du lancement d’une consultation publique destinée à recueillir l’analyse des parties prenantes. « Nous avons voulu livrer un diagnostic au moment où le secteur financier s’apprête à généraliser l’usage de l’IA, même si l’on se trouve plutôt au stade de l’expérimentation, du “Proof of concept” (PoC) que de l’industrialisation », a expliqué Olivier Fliche, le directeur du pôle Fintech de l’ACPR, lors d’une présentation à la presse ce jeudi.

La maitrise de l’IA priorité stratégique du secteur financier

30% des projets de digitalisation seraient conçus principalement autour de l’intelligence artificielle.

La maîtrise de l’IA est perçue comme une priorité stratégique pour les acteurs du secteur financier : 30% des projets de digitalisation seraient conçus principalement autour de l’intelligence artificielle et plus de la moitié des projets en développement utilisent l’IA. Les niveaux d’avancement sont « disparates » mais « les progrès [sont] réels et rapides » et le superviseur estime que « le secteur semble bel et bien au seuil d’un ensemble d’innovations qui vont profondément le transformer. »

L’ACPR relève que cette technologie peut permettre d’améliorer la relation client et le service rendu (chatbot, voicebot, analyseur d’email), en traitant plus rapidement les demandes, de mieux détecter la fraude, d’automatiser le traitement de certains sinistres dans l’assurance. A titre il est aujourd’hui possible en Chine, d’envoyer des photos d’accidents simplement via l’application d’Alibaba et de recevoir un remboursement très rapidement grâce aux technologies de “deep learning” en reconnaissance d’images ».

Des établissements utilisent aussi l’IA dans l’octroi du crédit pour améliorer leur système de scoring, notamment dans le domaine du crédit à la consommation très sensibles à la réactivité de la réponse. Du côté des marchés, l’IA peut aider à détecter les anomalies, les erreurs de type « fat finger » (erreur de touche), les délits d’initiés ou les fraudes extérieures.

Un impératif : accroitre la cybersécurité.

Cependant, en tant que superviseur, l’ACPR a surtout cherché à identifier les risques potentiels. Le premier danger, bien connu, de l’IA est le risque de biais des algorithmes, qui peuvent amener à des dérives, des exclusions des discriminations, soit du fait des paramètres intégrés, tels que le genre ou l’origine ethnique, soit du fait de l’interaction de plusieurs variables.

« Les biais peuvent être renforcés par l’algorithme et aboutir à des traitements inéquitables. Par exemple, une information comme le département peut discriminer les habitants d’un département pauvre pour l’obtention d’un prêt, ce qui peut renforcer les inégalités existantes », Certains effets pourraient constituer un enjeu de discrimination financière significatif.

L’autre risque tient à la sécurité informatique. Selon l’ACPR, «l’intelligence artificielle accroît les enjeux de cybersécurité » et pourrait « accentuer les failles préexistantes », notamment du fait du recours systématique au cloud ainsi, l’usage du machine learning pourrait permettre de “craquer” des mots de passe à partir des archives de mots de passe précédents.

Quid des géants de la tech, Gafa et autres…

Le superviseur met aussi en garde les acteurs du secteur financier contre le risque de dépendance des grands fournisseurs de services de cloud, qui incorporent bien souvent des solutions à base d’IA (analyse des données, surveillance des opérations, etc). La maîtrise de l’IA par quelques géants, comme Amazon, Microsoft, Google et IBM, « pourrait entraîner une concentration excessive du marché entre les mains de quelques acteurs », ce qui pourrait se traduire par des prix artificiellement élevés, des relations commerciales déséquilibrées, des difficultés d’accès et d’audit et plus généralement une opacité accrue des algorithmes (un effet « boîte noire »). Dans ce cadre les start-up de la FinTech très en pointes sur ces sujets ne pourraient avoir qu’un rôle de sous traitants locaux de ces géants, ce qui contriburaient évidemment à fragiliser ce secteur de pointe en les positionnants sur une position de dépendance.

La généralisation de l’AI dans le secteur bancaire pourrait à terme accentuer le rapport de force entre les Fintechs et les GAFA.

L’intelligence artificielle pourrait même poser des risques sur la stabilité financière, ou du moins accentuer des facteurs de risque, par exemple les comportements moutonniers sur les marchés. En effet, « en codant les algorithmes avec des variables similaires, les programmes de trading à haute fréquence tendent à converger vers la même stratégie. Le risque qui en découle est d’accentuer la pro-cyclicité et la volatilité du marché via des achats et ventes simultanés de grandes quantités », relève le rapport de l’ACPR, qui note aussi que les algorithmes n’ont pas été entraînés dans des situations de crise, or le machine learning pourrait là aussi accentuer une crise financière. Autre risque systémique potentiel de l’IA : une mauvaise évaluation des risques de crédit, qui pourrait fragiliser le marché obligataire ou certains acteurs bancaires.

l’IA, si elle n’est pas maitrisé pourrait contribuer à accentuer la volatilité des marchés.

Rassurons-nous : pas d’apocalypse en vue !

Loin de dresser un tableau entièrement apocalyptique, le superviseur assure vouloir avant tout « accompagner le développement actuel de l’IA qui est porteur de beaucoup de progrès potentiels, mais aussi anticiper les mutations du marché », tout en invitant les acteurs à prendre conscience des enjeux de gouvernance et d’auditabilité des algorithmes. L’ACPR veut même elle aussi tirer partie de l’IA et a prévu d’explorer le champ émergent de la “suptech” (supervisory technology). Son homologue de Singapour (MAS) a ainsi commencé à utiliser l’IA dans la détection des réseaux suspects de blanchiment d’argent.