Aller au contenu

Pourquoi l’apprentissage automatique n’est pas la solution miracle à la fraude en ligne

Lire le rapport sur l’état de la fraude en 2021

Abonnez-vous à la newsletter

Tenez-vous au courant de l'impact du COVID-19 sur le commerce de détail et de la meilleure façon pour les commerçants de continuer à faire des affaires à l'époque du coronavirus

rapport-etat-fraude-2021

L’apprentissage automatique est devenu le meilleur outil pour lutter contre la fraude à grande échelle, et les commerçants dotés du bon instinct s’y tournent de plus en plus pour trouver des solutions. Cependant, trop de commerçants considèrent l’apprentissage automatique comme une panacée pour la fraude en ligne, et certains fournisseurs alimentent de manière irresponsable cette croyance, préconisant un remplacement total des experts chevronnés en fraude en faveur de la machine.

La vérité est que lorsque l’apprentissage automatique est appliqué naïvement et dogmatiquement, non seulement il sera en deçà de son potentiel, mais il est également susceptible de fonctionner beaucoup moins bien que les techniques traditionnelles de prévention de la fraude.

L’article ci-dessous, écrit par le cofondateur Michael Liberty, a été publié à l’origine dans The Next Web le 17 février 2016.

Utiliser le passé pour prédire l’avenir

L’apprentissage automatique, en termes simples, est la pratique consistant à utiliser des algorithmes qui apprennent un « modèle » à partir de données passées et à l’utiliser pour faire des prédictions sur des événements futurs. Il suppose implicitement que les modèles du passé se répéteront à l’avenir.

Une application courante est les recommandations d’achat, comme celles vues sur Amazon, qui sont fournies par des modèles qui ont appris à prédire ce que les clients pourraient acheter en fonction de ce que des acheteurs similaires ont acheté. L’efficacité de l’apprentissage automatique dans ce contexte et dans d’autres, tels que la recherche sur l’Internet, fournit des preuves solides qu’il peut être un outil précieux dans le domaine riche en données de la prévention de la fraude.

Cependant, contrairement aux clients qui parcourent les recommandations d’achat d’Amazon, les fraudeurs évitent activement d’être prévisibles. Ils essaient constamment d’échapper aux efforts de détection qui utilisent leur comportement précédent comme point de référence.

Dans ce scénario, considérez un modèle appris par machine comme un plan de bataille complexe développé à partir de millions de batailles passées. Ce plan vous aide à vous protéger contre les tactiques que l’ennemi a déjà employées, mais que se passe-t-il s’il introduit une nouvelle tactique?

Un champ de bataille en constante évolution

Le danger de l’hypothèse « le passé prédit l’avenir » devrait être évident. Néanmoins, certaines entreprises de prévention de la fraude et de refacturation présentent l’apprentissage automatique comme une solution miracle qui nécessite peu d’expertise en matière de fraude ou d’intervention humaine.

Rendons les faiblesses exploitables de l’apprentissage automatique un peu plus concrètes. Un modèle appris par machine, qui a été formé sur des bases de données d’images massives à l’aide d’algorithmes de pointe, a déclaré avec un haut degré de confiance que cette image est un manchot royal.

image collée 0Avec un degré de confiance tout aussi élevé, il s’agit d’un tatou:

image collée 0-1Les chercheurs ont trompé les modèles en question et sont arrivés aux images ci-dessus en commençant par une image aléatoire et en la modifiant lentement, en observant comment le modèle réagissait. Ils ont répété le processus avec la nouvelle image jusqu’à ce qu’ils arrivent à une image que le modèle a classée avec 99% de confiance.

Les fraudeurs d’aujourd’hui sont tout aussi sophistiqués. Ils affineront sans cesse leurs techniques, et un scientifique des données portant le modèle « parfait » dans la bataille se retrouvera rapidement dans la position peu enviable d’avoir apporté un couteau à une fusillade.

Sans l’histoire et le contexte, le modèle souffre

L’objectif principal de l’apprentissage automatique est de développer des modèles qui montrent des performances prédictives dans un environnement de test ou en direct similaire à ce qui a été montré dans l’environnement de formation. Un modèle qui le fait bien est « robuste ». En termes simples, la meilleure façon de s’assurer de la robustesse d’un modèle est qu’un expert du domaine examine la cohérence de « l’histoire » d’un modèle, représentée par les variables sur lesquelles il est construit.

Lorsque les fraudeurs s’éloignent des modèles passés qu’ils croient que le modèle a identifiés comme frauduleux, un bon modèle ne s’effondrera pas instantanément. La prévention de la dégradation des efforts de prédiction et de prévention du modèle dépend de la nécessité de s’assurer que l’histoire implicite derrière le modèle et ses variables sont stables, c’est-à-dire qu’elles s’harmonisent avec une compréhension de bas niveau de ce que font les fraudeurs.

Si le modèle a été entraîné à trouver des corrélations correctes, mais fondamentalement faibles, le modèle est inutile face à un adversaire qui peut s’adapter rapidement.

Considérons, par exemple, une déclaration superficielle souvent faite dans les cercles de prévention de la fraude: le Delaware est l’État le plus frauduleux en Amérique. Oui, le Delaware. Un modélisateur naïf, sans explorer et comprendre la cause sous-jacente de la réclamation, prendrait cette idée et créerait une entrée « taux de fraude par État » dans son modèle, en supposant que le modèle peut le prendre à partir de là et signaler les ordres du Delaware comme risqués.

Ce modèle peut fonctionner assez bien pendant un certain temps, mais une fois qu’un fraudeur change d’état, le modèle devient inutile.

Après tout, l’histoire sous-jacente identifiée par l’analyse d’experts est que le Delaware est un point chaud pour la réexpédition. Si un expert du domaine avait contribué à la formation du modèle, il aurait été en mesure de comprendre le contexte et de recommander des variables meilleures et plus stables indiquant le problème de réexpédition , au lieu de signaler toutes les commandes du Delaware comme des clients frauduleux et frustrants.

Les humains sont lents, les machines sont stupides

Aujourd’hui, la meilleure façon de lutter contre la fraude est un mariage de compétences complémentaires entre l’homme et la machine. Les humains sont intelligents, mais lents; les machines sont incroyablement rapides, mais simples.

Pour résoudre le problème de la fraude, nous devons puiser dans toutes les ressources disponibles. Les experts du domaine apportent « l’histoire » de la fraude, leur intuition et une compréhension du contexte. Ils fournissent un enseignement et des conseils sur les données à alimenter initialement le modèle, ainsi que sur les nouvelles données à intégrer à mesure que la fraude évolue. Une fois le modèle général identifié, un modèle d’apprentissage automatique peut rendre la détection plus précise, précise et cohérente. Le modèle peut fournir des estimations exactes des niveaux de probabilité et de confiance. Contrairement aux humains, les modèles ne sont pas émotionnels ou sujets aux erreurs. Et, bien sûr, les modèles sont infiniment plus évolutifs qu’un humain.

George Patton a dit un jour : « Les guerres peuvent être menées avec des armes, mais elles sont gagnées par des hommes. » L’apprentissage automatique est devenu une arme indispensable contre la fraude, mais il ne supplantera jamais le besoin d’ingéniosité humaine dans la lutte contre les fraudeurs.

Mike Cassidy

Mike Cassidy

Mike est le responsable du contenu chez Signifyd. Ancien journaliste et fanatique de la vente au détail, il couvre le commerce électronique et la façon dont la technologie transforme le commerce numérique. Contactez-le à mike.cassidy@signifyd.com.