Machine learning, réseaux de neurones, intelligences faible et forte sont autant de termes gravitant autour de l’intelligence artificielle qui nous interrogent et suscitent l’intérêt des grandes banques. Les initiatives bancaires sur le sujet s’accélèrent et le champ d’application de la technologie est large. L’IA peut en effet impacter la banque de diverses façons : amélioration de l’expérience client, efficacité opérationnelle, évolution du métier bancaire, détection des fraudes, développement commercial…

Plusieurs articles déjà publiés sur BankObserver font référence aux applications de l’IA dans la banque :

L’intelligence artificielle, le futur de la banque ?

Intelligence artificielle : quelles applications pour la banque ?

En quoi l’intelligence artificielle oblige les banques à repenser la relation client ?

L’intelligence artificielle dans la banque

L’intelligence artificielle peut-elle faire disparaître les métiers bancaires ? 

Cette grande variété d’applications explique le basculement de grandes banques vers des stratégies IA-first et nourrit l’engouement pour cette technologie futuriste. Mais qu’entend-on réellement par intelligence artificielle ? Qu’en est-il de son avancée technologique ? Comment fonctionne-t-elle et quels sont les éléments clés à retenir ?

 

Mise en perspective

Si l’intelligence artificielle fait beaucoup parler d’elle aujourd’hui c’est par la rapidité de ses progrès ces dernières années, rendus possibles par la performance des micro-processeurs et la capacité des ordinateurs à traiter les milliards de données générées à l’ère du « Big Data ». En effet le concept d’intelligence artificielle ne date pas d’hier puisque c’est en 1956 que John McCarthy, un des pionniers de l’IA, introduit pour la première fois le terme. Mais l’idée avait déjà vu le jour plus tôt par les réflexions d’un mathématicien célèbre, précurseur de la technologie, qui s’interrogeait sur la capacité des machines à penser. Il s’agit d’Alan Turing qui affirme qu’une machine peut, par le jeu de l’imitation, se faire passer pour un être humain. Il définit en 1950 le Test dit de Turing permettant de déterminer par le biais d’une conversation, si l’interlocuteur est une personne ou une machine.

Si la technologie impressionne aujourd’hui, il faut voir que sa marge de progression est encore importante et se rapproche souvent d’une super-calculatrice, d’un programme boosté, loin des subtilités dont est capable le cerveau humain. Les différents types d’IA et leur fonctionnement permettent de comprendre ces niveaux d’intelligence.

Dr Laurent Alexandre, spécialiste des révolutions technologiques, classifie dans son livre La Guerre des Intelligences (2017) le développement de l’IA en quatre étapes :

  • Première étape (1960 – 2010) : l’IA repose sur des algorithmes résolvant des problèmes simples et programmés par la main de l’homme.
  • Deuxième étape (2012 – 2030) : l’IA utilisant le « deep learning » qui s’éduque par l’apprentissage via les données. Cette IA permet de développer des programmes dépassant parfois les capacités humaines, mais sur des tâches spécifiques.
  • Troisième étape (à partir de 2030) : l’IA de troisième génération reprendra les principes de la deuxième mais en ajoutant à sa prise de décision des éléments de contexte.
  • Quatrième étape : cette IA complète dépasserait largement les autres en termes d’intelligence en étant dotée d’une conscience artificielle, capable de sentiments et de comprendre son raisonnement.

 

L’IA faible et l’IA forte

La notion de conscience fait la distinction entre ce que l’on appelle l’IA faible et l’IA forte (AI for Humanity, 2018).

Les intelligences artificielles faibles sont des machines dotées d’algorithmes capables de traiter des tâches précises et prédéfinies de manière extrêmement rapide, de sorte qu’elles peuvent atteindre des rentabilités d’analyse équivalentes ou supérieures à celle de l’homme (prognostiques médicaux sur une pathologie donnée par exemple). Aujourd’hui les IA développées sont de type faible, à l’exemple des chatbots et des assistants vocaux comme Siri d’Apple.

Les intelligences artificielles fortes en revanche seront capables d’accéder à l’étendue des capacités de l’intelligence humaine et en particulier de l’intelligence émotionnelle. Ces machines pourront apprendre et s’adapter à leur environnement, au contexte, et donc à l’imprévu. Elles seront également capables d’empathie, de façon à se comporter et à agir comme le ferait un humain. Une IA faible serait seulement capable de l’imiter selon des règles préprogrammées, dans des situations définies par la main de l’homme.

 

Les modes d’apprentissage

Un élément tout particulièrement important pour comprendre le fonctionnement de l’IA est la méthode d’apprentissage de cette machine. En effet l’approche d’apprentissage prédominante aujourd’hui est l’approche probabiliste, qui s’oppose à l’approche déterministe précédemment utilisée dans l’informatique. Une génération automatique de mail par exemple relève du domaine déterministe alors qu’un chatbot s’appuie sur une approche probabiliste. Au lieu de créer des règles prédéfinies permettant à l’ordinateur de résoudre un problème dans une suite d’étapes logiques, l’approche probabiliste propose un apprentissage par l’expérience et un raisonnement basé sur des calculs statistiques (selon les données fournies).

C’est bien cette notion de paramétrage qui différencie un système expert ou du RPA (Robotic Process Automation) de l’intelligence artificielle, dotée de capacités de l’ordre du cognitif. Cet apprentissage automatique (machine learning) a l’avantage de permettre à l’ordinateur de répondre à un scénario non-prédéterminé, auquel il pourra répondre selon les exemples auquel il aura été précédemment confronté. Le machine learning repose sur un système d’analyse systématique des données lui permettant de s’ajuster progressivement. Il existe plusieurs méthodes d’apprentissage de « machine learning » :

  • L’apprentissage supervisé : les données fournies sont classées (en associant une image à un nom par exemple).
  • L’apprentissage non-supervisé : les données fournies sont non-classées et la machine doit pouvoir les classer elle-même. C’est une forme d’apprentissage plus intéressante mais plus difficile à mettre en place.
  • L’apprentissage par renforcement : la machine cherche à optimiser les résultats obtenus en observant de manière itérative la réaction (quantitativement positive ou négative) de l’environnement dans lequel il agit.

L’apprentissage profond ou « deep learning » est une sous-catégorie du machine learning caractérisant une méthode d’apprentissage par couches (expliquant la notion de profondeur). Il repose sur un apprentissage supervisé ou non-supervisé en associant des millions de fois un objet à un mot. L’architecture de l’apprentissage se fait par couches sous forme de réseaux de neurones (par imitation du cerveau humain) dans lequel chaque neurone effectue un calcul élémentaire. Les processeurs en deep learning effectuent donc un très grand nombre de calculs élémentaires en parallèle. L’analyse s’affine ensuite en utilisant les résultats de la couche de neurones comme entrée de la couche suivante.

 

Ce n’est encore que le début…

Ces éléments d’explication permettent de mieux comprendre l’IA et ses enjeux. Si la technologie n’en est qu’à ses débuts en termes de maturité, il est possible de se représenter l’étendue de son potentiel futur. Les initiatives lancées aujourd’hui (chatbots, assistants vocaux, outils de reconnaissance automatique, etc.) permettent aux banques de s’initier à cette technologie en devenir tout en améliorant dès à présent l’expérience client et l’efficacité opérationnelle. Cependant il faut noter que l’exploitation de l’IA nécessite de détenir et de savoir maîtriser un grand nombre de données afin de nourrir l’ordinateur pour son apprentissage. Ce prérequis renforce le pouvoir des géants du Web (GAFAMI et BATX), à-même de fournir le grand nombre de données nécessaires pour assurer la formation des intelligences artificielles.