Guillermo Delgado Aparicio est Leader mondial en IA chez Nisum.
Découvrez les meilleures actualités et événements fintech !
Abonnez-vous à la newsletter de FinTech Weekly
Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et d’autres
L’IA dans la fintech couvre une gamme d’applications, de la détection de fraude et du trading algorithmique à la notation de crédit dynamique et aux recommandations de produits personnalisés. Pourtant, un rapport de la Financial Conduct Authority a révélé que parmi les 75 % d’entreprises utilisant l’IA, seulement 34 % comprennent son fonctionnement.
Le problème ne réside pas seulement dans le manque de connaissance. Il s’agit d’une méconnaissance profonde du pouvoir et de la portée de l’analyse de données, la discipline à l’origine de l’IA. L’adoption massive des outils d’IA générative a porté le sujet au sommet de la direction. Mais beaucoup de ceux qui décident comment implémenter l’IA ne comprennent pas ses principes fondamentaux de calcul, de statistiques et d’algorithmes avancés.
Prenez la loi de Benford, un principe statistique simple qui détecte la fraude en repérant des motifs dans les chiffres. L’IA s’appuie sur ce même type de mathématiques, simplement à une échelle de millions de transactions simultanées. En éliminant le battage médiatique, la base reste la statistique et les algorithmes.
C’est pourquoi la maîtrise de l’IA au niveau de la direction est essentielle. Les leaders qui ne savent pas où s’arrête l’analyse risquent de faire confiance à des systèmes qu’ils ne comprennent pas ou de les sous-utiliser par crainte. L’histoire montre ce qui arrive lorsque les décideurs mal interprètent la technologie : les régulateurs ont déjà tenté d’interdire les appels IP internationaux, pour voir la technologie dépasser les règles. La même dynamique se joue avec l’IA. On ne peut pas la bloquer ni l’adopter aveuglément ; il faut du jugement, du contexte et la capacité de la guider de manière responsable.
Les leaders fintech doivent combler ces lacunes pour utiliser l’IA de façon responsable et efficace. Cela implique de comprendre où s’arrête l’analyse et où commence l’IA, de développer les compétences pour piloter ces systèmes, et d’appliquer un jugement solide pour décider quand et comment faire confiance à leurs résultats.
Les limites, angles morts et illusions de l’IA
L’analyse examine les données passées et présentes pour expliquer ce qui s’est passé et pourquoi. L’IA s’appuie sur cette base, utilisant des analyses avancées pour prévoir ce qui va se produire ensuite et, de plus en plus, pour décider ou agir automatiquement.
Avec ses compétences exceptionnelles en traitement de données, il est facile de comprendre pourquoi les leaders fintech voient l’IA comme leur solution miracle. Mais elle ne peut pas résoudre tous les problèmes. Les humains ont toujours un avantage inné dans la reconnaissance de motifs, surtout lorsque les données sont incomplètes ou « sales ». L’IA peut avoir du mal à interpréter les nuances contextuelles que les humains saisissent rapidement.
Pourtant, il est une erreur de penser que des données imparfaites rendent l’IA inutile. Les modèles analytiques peuvent fonctionner avec des données incomplètes. Mais savoir quand déployer l’IA et quand faire appel au jugement humain pour combler les lacunes est le vrai défi. Sans cette supervision attentive, l’IA peut introduire des risques importants.
Un problème majeur est le biais. Lorsqu’une fintech entraîne l’IA sur des ensembles de données anciens, elle hérite souvent des biais qui y sont liés. Par exemple, le prénom d’un client peut involontairement servir de proxy pour le genre, ou le nom de famille peut donner des indices sur l’origine ethnique, biaisant les scores de crédit de manière que aucun régulateur n’approuverait. Ces biais, facilement dissimulés dans les mathématiques, nécessitent souvent une supervision humaine pour être détectés et corrigés.
Lorsque les modèles d’IA sont exposés à des situations non rencontrées lors de leur entraînement, cela peut entraîner un dérive du modèle. La volatilité du marché, les changements réglementaires, l’évolution des comportements clients et les fluctuations macroéconomiques peuvent tous impacter l’efficacité d’un modèle sans surveillance humaine et recalibrage.
La difficulté de recalibrer les algorithmes augmente fortement lorsque les fintech utilisent des boîtes noires qui ne permettent pas de voir la relation entre variables. Dans ces conditions, elles perdent la possibilité de transmettre ces connaissances aux décideurs. De plus, les erreurs et biais restent cachés dans ces modèles opaques, ce qui nuit à la confiance et à la conformité.
Ce que les leaders fintech doivent savoir
Une enquête de Deloitte a révélé que 80 % déclarent que leurs conseils d’administration ont peu ou pas d’expérience avec l’IA. Mais les cadres dirigeants ne peuvent pas se permettre de traiter l’IA comme un problème réservé à l’équipe technique. La responsabilité de l’IA revient à la direction, ce qui oblige les leaders fintech à renforcer leurs compétences.
Maîtrise transanalytique
Avant de déployer l’IA, les leaders fintech doivent pouvoir changer de perspective — examiner les chiffres, le cas d’affaires, les opérations et l’éthique — et voir comment ces facteurs se chevauchent et façonnent les résultats de l’IA. Ils doivent comprendre comment la précision statistique d’un modèle se rapporte à l’exposition au risque de crédit. Et reconnaître quand une variable apparemment financièrement saine (comme l’historique de remboursement) peut introduire un risque social ou réglementaire par corrélation avec une catégorie protégée, comme l’âge ou l’origine ethnique.
Cette maîtrise de l’IA vient en dialoguant avec les responsables conformité pour déchiffrer les réglementations, en discutant avec les gestionnaires de produits sur l’expérience utilisateur, et en examinant les résultats des modèles avec les data scientists pour repérer des signes de dérive ou de biais.
Dans la fintech, éviter totalement le risque est impossible, mais avec cette maîtrise transanalytique, les leaders peuvent identifier quels risques valent la peine d’être pris et lesquels pourraient éroder la valeur pour les actionnaires. Cette compétence aiguise aussi la capacité à repérer et agir contre les biais, non seulement d’un point de vue réglementaire, mais aussi stratégique et éthique.
Par exemple, si un modèle de scoring de crédit basé sur l’IA favorise fortement un groupe de clients, corriger ce déséquilibre ne se limite pas à une tâche de data science ; cela protège la réputation de l’entreprise. Pour les fintech engagées dans l’inclusion financière ou soumises à des enjeux ESG, la conformité légale ne suffit pas. Le jugement consiste à savoir ce qui est juste, pas seulement ce qui est permis.
Littératie en explicabilité
L’explicabilité est la base de la confiance. Sans elle, les décideurs, clients et régulateurs se demandent pourquoi un modèle est arrivé à une conclusion spécifique.
Cela signifie que les dirigeants doivent pouvoir distinguer entre des modèles interprétables et ceux nécessitant des explications post-hoc (comme SHAP ou LIME). Ils doivent poser des questions lorsque la logique d’un modèle n’est pas claire et reconnaître quand « la précision » seule ne peut justifier une décision de boîte noire.
Les biais n’apparaissent pas de nulle part ; ils émergent lorsque les modèles sont entraînés et déployés sans supervision suffisante. L’explicabilité donne aux leaders la visibilité pour détecter ces problèmes tôt et agir avant qu’ils ne causent des dégâts.
L’IA est comme le pilote automatique d’un avion. La plupart du temps, elle fonctionne sans problème, mais lorsqu’une tempête survient, le pilote doit reprendre le contrôle. En finance, ce même principe s’applique. Les équipes doivent pouvoir arrêter le trading, ajuster une stratégie ou même interrompre un lancement de produit lorsque les conditions changent. L’explicabilité fonctionne en tandem avec la capacité à prendre le contrôle, ce qui garantit que la direction comprend l’IA et reste maître du jeu, même à grande échelle.
Pensée probabiliste
Les dirigeants sont habitués à des décisions déterministes, comme si un score de crédit est inférieur à 650, refuser la demande. Mais l’IA ne fonctionne pas ainsi, et cela représente un changement de paradigme mental majeur.
Pour les leaders, la pensée probabiliste requiert trois capacités :
* Interpréter des plages de risque plutôt que des résultats binaires oui/non.
* Peser le niveau de confiance d’une prédiction par rapport à d’autres considérations commerciales ou réglementaires.
* Savoir quand dépasser l’automatisation et appliquer le jugement humain.
Par exemple, un modèle probabiliste d’IA d’une fintech pourrait signaler qu’un client est à haut risque, mais cela ne signifie pas nécessairement « refuser ». Cela peut signifier « approfondir l’investigation » ou « ajuster les conditions du prêt ». Sans cette nuance, l’automatisation risque de devenir un outil grossier, érodant la confiance des clients tout en exposant l’entreprise à des répercussions réglementaires.
Pourquoi la couche de jugement déterminera les gagnants de la fintech
L’avenir de la fintech ne sera pas défini par ceux qui ont les modèles d’IA les plus puissants, mais par ceux qui les utilisent avec le meilleur jugement. À mesure que l’IA devient une commodité, les gains d’efficacité deviennent la norme. Ce qui distingue les gagnants, c’est leur capacité à intervenir lorsque les algorithmes rencontrent de l’incertitude, du risque et des zones grises éthiques.
La couche de jugement n’est pas une idée abstraite. Elle apparaît lorsque les dirigeants décident de suspendre un trading automatisé, de retarder un lancement de produit ou de dépasser un score de risque qui ne reflète pas le contexte réel. Ces moments ne sont pas des échecs de l’IA ; ils prouvent que la supervision humaine reste la dernière ligne de création de valeur.
L’alignement stratégique est là où le jugement devient institutionnalisé. Une stratégie IA solide ne se limite pas à établir des feuilles de route techniques ; elle veille à ce que l’organisation revoie ses initiatives, améliore les compétences en IA des équipes, s’assure que l’architecture des données est adaptée, et relie chaque déploiement à un objectif commercial clair. En ce sens, le jugement n’est pas une démarche ponctuelle, mais intégré au mode de fonctionnement, permettant aux dirigeants d’adopter une approche de leadership basée sur la valeur.
Les fintechs ont besoin de leaders capables d’équilibrer l’IA pour la rapidité et l’échelle, et l’humain pour le contexte, la nuance et la vision à long terme. L’IA peut repérer des anomalies en quelques secondes, mais seul l’humain peut décider quand remettre en question la mathématique, repenser des hypothèses ou prendre un risque audacieux qui ouvre la voie à la croissance. Cette couche de jugement transforme l’IA d’un simple outil en un avantage stratégique.
À propos de l’auteur :
Guillermo Delgado est le Leader mondial en IA pour Nisum et COO de Deep Space Biology. Fort de plus de 25 ans d’expérience en biochimie, intelligence artificielle, biologie spatiale et entrepreneuriat, il développe des solutions innovantes pour le bien-être humain sur Terre et dans l’espace.
En tant que consultant en stratégie d’entreprise, il a contribué à la vision de la NASA pour l’IA en biologie spatiale et a reçu des prix d’innovation. Il détient un Master of Science en Intelligence Artificielle de Georgia Tech, obtenu avec mention. De plus, en tant que professeur universitaire, il a enseigné des cours sur l’apprentissage automatique, le big data et la génomique.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La couche de jugement : pourquoi l'IA n'est pas intelligente tant que les leaders ne le sont pas davantage
Guillermo Delgado Aparicio est Leader mondial en IA chez Nisum.
Découvrez les meilleures actualités et événements fintech !
Abonnez-vous à la newsletter de FinTech Weekly
Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et d’autres
L’IA dans la fintech couvre une gamme d’applications, de la détection de fraude et du trading algorithmique à la notation de crédit dynamique et aux recommandations de produits personnalisés. Pourtant, un rapport de la Financial Conduct Authority a révélé que parmi les 75 % d’entreprises utilisant l’IA, seulement 34 % comprennent son fonctionnement.
Le problème ne réside pas seulement dans le manque de connaissance. Il s’agit d’une méconnaissance profonde du pouvoir et de la portée de l’analyse de données, la discipline à l’origine de l’IA. L’adoption massive des outils d’IA générative a porté le sujet au sommet de la direction. Mais beaucoup de ceux qui décident comment implémenter l’IA ne comprennent pas ses principes fondamentaux de calcul, de statistiques et d’algorithmes avancés.
Prenez la loi de Benford, un principe statistique simple qui détecte la fraude en repérant des motifs dans les chiffres. L’IA s’appuie sur ce même type de mathématiques, simplement à une échelle de millions de transactions simultanées. En éliminant le battage médiatique, la base reste la statistique et les algorithmes.
C’est pourquoi la maîtrise de l’IA au niveau de la direction est essentielle. Les leaders qui ne savent pas où s’arrête l’analyse risquent de faire confiance à des systèmes qu’ils ne comprennent pas ou de les sous-utiliser par crainte. L’histoire montre ce qui arrive lorsque les décideurs mal interprètent la technologie : les régulateurs ont déjà tenté d’interdire les appels IP internationaux, pour voir la technologie dépasser les règles. La même dynamique se joue avec l’IA. On ne peut pas la bloquer ni l’adopter aveuglément ; il faut du jugement, du contexte et la capacité de la guider de manière responsable.
Les leaders fintech doivent combler ces lacunes pour utiliser l’IA de façon responsable et efficace. Cela implique de comprendre où s’arrête l’analyse et où commence l’IA, de développer les compétences pour piloter ces systèmes, et d’appliquer un jugement solide pour décider quand et comment faire confiance à leurs résultats.
Les limites, angles morts et illusions de l’IA
L’analyse examine les données passées et présentes pour expliquer ce qui s’est passé et pourquoi. L’IA s’appuie sur cette base, utilisant des analyses avancées pour prévoir ce qui va se produire ensuite et, de plus en plus, pour décider ou agir automatiquement.
Avec ses compétences exceptionnelles en traitement de données, il est facile de comprendre pourquoi les leaders fintech voient l’IA comme leur solution miracle. Mais elle ne peut pas résoudre tous les problèmes. Les humains ont toujours un avantage inné dans la reconnaissance de motifs, surtout lorsque les données sont incomplètes ou « sales ». L’IA peut avoir du mal à interpréter les nuances contextuelles que les humains saisissent rapidement.
Pourtant, il est une erreur de penser que des données imparfaites rendent l’IA inutile. Les modèles analytiques peuvent fonctionner avec des données incomplètes. Mais savoir quand déployer l’IA et quand faire appel au jugement humain pour combler les lacunes est le vrai défi. Sans cette supervision attentive, l’IA peut introduire des risques importants.
Un problème majeur est le biais. Lorsqu’une fintech entraîne l’IA sur des ensembles de données anciens, elle hérite souvent des biais qui y sont liés. Par exemple, le prénom d’un client peut involontairement servir de proxy pour le genre, ou le nom de famille peut donner des indices sur l’origine ethnique, biaisant les scores de crédit de manière que aucun régulateur n’approuverait. Ces biais, facilement dissimulés dans les mathématiques, nécessitent souvent une supervision humaine pour être détectés et corrigés.
Lorsque les modèles d’IA sont exposés à des situations non rencontrées lors de leur entraînement, cela peut entraîner un dérive du modèle. La volatilité du marché, les changements réglementaires, l’évolution des comportements clients et les fluctuations macroéconomiques peuvent tous impacter l’efficacité d’un modèle sans surveillance humaine et recalibrage.
La difficulté de recalibrer les algorithmes augmente fortement lorsque les fintech utilisent des boîtes noires qui ne permettent pas de voir la relation entre variables. Dans ces conditions, elles perdent la possibilité de transmettre ces connaissances aux décideurs. De plus, les erreurs et biais restent cachés dans ces modèles opaques, ce qui nuit à la confiance et à la conformité.
Ce que les leaders fintech doivent savoir
Une enquête de Deloitte a révélé que 80 % déclarent que leurs conseils d’administration ont peu ou pas d’expérience avec l’IA. Mais les cadres dirigeants ne peuvent pas se permettre de traiter l’IA comme un problème réservé à l’équipe technique. La responsabilité de l’IA revient à la direction, ce qui oblige les leaders fintech à renforcer leurs compétences.
Maîtrise transanalytique
Avant de déployer l’IA, les leaders fintech doivent pouvoir changer de perspective — examiner les chiffres, le cas d’affaires, les opérations et l’éthique — et voir comment ces facteurs se chevauchent et façonnent les résultats de l’IA. Ils doivent comprendre comment la précision statistique d’un modèle se rapporte à l’exposition au risque de crédit. Et reconnaître quand une variable apparemment financièrement saine (comme l’historique de remboursement) peut introduire un risque social ou réglementaire par corrélation avec une catégorie protégée, comme l’âge ou l’origine ethnique.
Cette maîtrise de l’IA vient en dialoguant avec les responsables conformité pour déchiffrer les réglementations, en discutant avec les gestionnaires de produits sur l’expérience utilisateur, et en examinant les résultats des modèles avec les data scientists pour repérer des signes de dérive ou de biais.
Dans la fintech, éviter totalement le risque est impossible, mais avec cette maîtrise transanalytique, les leaders peuvent identifier quels risques valent la peine d’être pris et lesquels pourraient éroder la valeur pour les actionnaires. Cette compétence aiguise aussi la capacité à repérer et agir contre les biais, non seulement d’un point de vue réglementaire, mais aussi stratégique et éthique.
Par exemple, si un modèle de scoring de crédit basé sur l’IA favorise fortement un groupe de clients, corriger ce déséquilibre ne se limite pas à une tâche de data science ; cela protège la réputation de l’entreprise. Pour les fintech engagées dans l’inclusion financière ou soumises à des enjeux ESG, la conformité légale ne suffit pas. Le jugement consiste à savoir ce qui est juste, pas seulement ce qui est permis.
Littératie en explicabilité
L’explicabilité est la base de la confiance. Sans elle, les décideurs, clients et régulateurs se demandent pourquoi un modèle est arrivé à une conclusion spécifique.
Cela signifie que les dirigeants doivent pouvoir distinguer entre des modèles interprétables et ceux nécessitant des explications post-hoc (comme SHAP ou LIME). Ils doivent poser des questions lorsque la logique d’un modèle n’est pas claire et reconnaître quand « la précision » seule ne peut justifier une décision de boîte noire.
Les biais n’apparaissent pas de nulle part ; ils émergent lorsque les modèles sont entraînés et déployés sans supervision suffisante. L’explicabilité donne aux leaders la visibilité pour détecter ces problèmes tôt et agir avant qu’ils ne causent des dégâts.
L’IA est comme le pilote automatique d’un avion. La plupart du temps, elle fonctionne sans problème, mais lorsqu’une tempête survient, le pilote doit reprendre le contrôle. En finance, ce même principe s’applique. Les équipes doivent pouvoir arrêter le trading, ajuster une stratégie ou même interrompre un lancement de produit lorsque les conditions changent. L’explicabilité fonctionne en tandem avec la capacité à prendre le contrôle, ce qui garantit que la direction comprend l’IA et reste maître du jeu, même à grande échelle.
Pensée probabiliste
Les dirigeants sont habitués à des décisions déterministes, comme si un score de crédit est inférieur à 650, refuser la demande. Mais l’IA ne fonctionne pas ainsi, et cela représente un changement de paradigme mental majeur.
Pour les leaders, la pensée probabiliste requiert trois capacités :
Par exemple, un modèle probabiliste d’IA d’une fintech pourrait signaler qu’un client est à haut risque, mais cela ne signifie pas nécessairement « refuser ». Cela peut signifier « approfondir l’investigation » ou « ajuster les conditions du prêt ». Sans cette nuance, l’automatisation risque de devenir un outil grossier, érodant la confiance des clients tout en exposant l’entreprise à des répercussions réglementaires.
Pourquoi la couche de jugement déterminera les gagnants de la fintech
L’avenir de la fintech ne sera pas défini par ceux qui ont les modèles d’IA les plus puissants, mais par ceux qui les utilisent avec le meilleur jugement. À mesure que l’IA devient une commodité, les gains d’efficacité deviennent la norme. Ce qui distingue les gagnants, c’est leur capacité à intervenir lorsque les algorithmes rencontrent de l’incertitude, du risque et des zones grises éthiques.
La couche de jugement n’est pas une idée abstraite. Elle apparaît lorsque les dirigeants décident de suspendre un trading automatisé, de retarder un lancement de produit ou de dépasser un score de risque qui ne reflète pas le contexte réel. Ces moments ne sont pas des échecs de l’IA ; ils prouvent que la supervision humaine reste la dernière ligne de création de valeur.
L’alignement stratégique est là où le jugement devient institutionnalisé. Une stratégie IA solide ne se limite pas à établir des feuilles de route techniques ; elle veille à ce que l’organisation revoie ses initiatives, améliore les compétences en IA des équipes, s’assure que l’architecture des données est adaptée, et relie chaque déploiement à un objectif commercial clair. En ce sens, le jugement n’est pas une démarche ponctuelle, mais intégré au mode de fonctionnement, permettant aux dirigeants d’adopter une approche de leadership basée sur la valeur.
Les fintechs ont besoin de leaders capables d’équilibrer l’IA pour la rapidité et l’échelle, et l’humain pour le contexte, la nuance et la vision à long terme. L’IA peut repérer des anomalies en quelques secondes, mais seul l’humain peut décider quand remettre en question la mathématique, repenser des hypothèses ou prendre un risque audacieux qui ouvre la voie à la croissance. Cette couche de jugement transforme l’IA d’un simple outil en un avantage stratégique.
À propos de l’auteur :
Guillermo Delgado est le Leader mondial en IA pour Nisum et COO de Deep Space Biology. Fort de plus de 25 ans d’expérience en biochimie, intelligence artificielle, biologie spatiale et entrepreneuriat, il développe des solutions innovantes pour le bien-être humain sur Terre et dans l’espace.
En tant que consultant en stratégie d’entreprise, il a contribué à la vision de la NASA pour l’IA en biologie spatiale et a reçu des prix d’innovation. Il détient un Master of Science en Intelligence Artificielle de Georgia Tech, obtenu avec mention. De plus, en tant que professeur universitaire, il a enseigné des cours sur l’apprentissage automatique, le big data et la génomique.