$Visa (V.US)$ has successfully leveraged artificial intelligence and machine learning to prevent $40 billion in fraudulent activities, according to a company executive.
What Happened: James Mirfin, global head of risk and identity solutions at Visa, informed CNBC that the company has utilized AI and machine learning to combat fraudulent activities, which have nearly doubled from the previous year.
Visa has managed to prevent $40 billion in fraudulent activities from October 2022 to September 2023, which is almost twice the amount from the previous year, Mirfin said.
He explained that fraudsters use AI to generate primary account numbers (PAN) and repeatedly test them. This method, known as an enumeration attack, results in $1.1 billion in fraud losses annually.
"We look at over 500 different attributes around [each] transaction, we score that and we create a score –that's an AI model that will actually do that. We do about 300 billion transactions a year," Mirfin told CNBC.
Visa assigns a real-time risk score to each transaction to detect and prevent enumeration attacks in transactions processed remotely without a physical card via a card reader or terminal.
"Every single one of those [transactions] has been processed by AI. It's looking at a range of different attributes and we're evaluating every single transaction," Mirfin said.
Visa also uses AI to assess the likelihood of fraud for token provisioning requests and has invested $10 billion in technology to reduce fraud and increase network security over the last five years.
Why It Matters: The significance of Visa's achievement in preventing $40 billion in fraudulent transactions is underscored by the alarming rise in cybercrime. According to Charles Lobo, Visa's Regional Risk Officer for Central and Eastern Europe, Middle East, and Africa, cybercrime could rival the world's top economies by 2025, with projected costs reaching $10.5 trillion annually.
Additionally, the use of AI-generated fake IDs to bypass Know Your Customer (KYC) checks on cryptocurrency exchanges has become a widespread issue. OnlyFake, an online service, has been creating counterfeit IDs that successfully pass KYC checks, raising significant security concerns.
Moreover, the use of deepfake technology in scams is on the rise. In one instance, fraudsters used deepfake technology to impersonate a company's CFO during a video call, resulting in a $25 million loss, as reported by Hong Kong police.
Furthermore, the Hong Kong Securities and Futures Commission recently warned about a fraudulent cryptocurrency trading platform called "Quantum AI," which used deepfakes of Elon Musk to lure victims, highlighting the growing use of AI in committing fraud, particularly in Asia.
This story was generated using Benzinga Neuro and edited by Kaustubh Bagalkote
$ビザ A (V.US)$同社の役員によると、人工知能と機械学習を有効に活用して、約400億ドルの不正行為を防止しています。
Visaのグローバルリスク&アイデンティティソリューションの責任者であるJames Mirfin氏は、前年度からほぼ倍増した不正行為に対処するために、同社が人工知能と機械学習を利用していることをCNBCに伝えました。
Visaは、Mirfin氏によると、2022年10月から2023年9月までの不正行為による損失を$400億未満に抑えることに成功したそうです。これは前年度からほぼ2倍です。
Mirfin氏は、不正行為者が主アカウント番号(PAN)を生成し、繰り返しテストするために人工知能を利用していると説明しました。この手法は列挙攻撃として知られ、年間$11億の不正損失につながっています。
「我々は取引の周りに500以上の異なる属性を見て、それらをスコアリングしてAIモデルを作成しています。年間約3000億件の取引を行っています」とMirfin氏はCNBCに語りました。
Visaは、物理的なカードリーダーや端末を介して処理されることなく遠隔で処理される取引で列挙攻撃を検出して防止するため、リアルタイムのリスクスコアを各取引に割り当てています。
「それら(取引)のすべてをAIが処理しています。さまざまな属性を見て、すべての取引を評価しています」とMirfin氏は述べています。
Visaはトークンプロビジョニング要求の不正防止のためにも人工知能を使用し、過去5年間でセキュリティ強化と不正防止のために100億ドルを投資しています。
Visaが不正取引による$400億の損失を防ぐことに成功したことの重要性は、サイバー犯罪の急増によってさらに強調されます。Visaの中東、アフリカ、中央・東ヨーロッパ地域担当リスクオフィサーであるCharles Lobo氏によると、サイバー犯罪は2025年までに世界トップの経済規模に匹敵する可能性があり、年間の損失は105兆ドルに達すると予想されています。
さらに、暗号通貨取引所での顧客識別確認(KYC)のためにAI生成の偽IDを使った手口は広がっています。オンラインサービスのOnlyFakeは、KYCチェックをパスする偽のIDを作成しており、重大なセキュリティ上の懸念が高まっています。
さらに、スキャムで深偽造技術が使われることが増えています。香港警察の報道によると、詐欺師が深偽造技術を使って企業の財務責任者CFOをなりすまし、ビデオ通話中に2500万ドルの損失を出す事例がありました。
さらに、香港証券先物委員会は最近、「Quantum AI」という偽の暗号通貨取引プラットフォームについて警告し、エロン・マスクの深偽造を利用して被害者を誘い込む手法についても言及しました。AIを使用した詐欺行為は、特にアジアで増加しています。
この記事は、Benzinga Neuroによって生成され、Kaustubh Bagalkoteによって編集されました。