هارفارد بزنس ريفيو العربية / رقم العدد
اسم المترجم
عدد الكلمات في النسخة الأصلية
تاريخ الاستلام
تاريخ التسليم
طارق إسماعيل
1368
9/9/2018
15/9/2018
التكنولوجيا:
Technology:
العناوين:
مخاطر ومزايا استخدام الذكاء الاصطناعي للكشف عن الجرائم
ليسا كويست وأنطوني تشاري ولوكاس دو كرو دي جونغ وسوباس روي
Headlines:
The Risks and Benefits of Using AI to Detect Crime
By Lisa Quest, Anthony Charrie, Lucas du Croo de Jongh and Subas Roy
النص كامل:
تستخدم الشركات الذكاء الاصطناعي للحيلولة دون الجرائم كلها والكشف عنها، بدايةً من سرقات الموظفين الروتينية وحتى المضاربة من الداخل بناءً على معلومات سرية. وتوظف الكثير من البنوك والشركات الذكاء الاصطناعي للكشف عن عمليات الاحتيال وغسيل الأموال والحيلولة دونها. وتستغل شركات مواقع التواصل الاجتماعي التعلم الآلي لحجب المحتوى غير المشروع كصور الأطفال الإباحية. وتجرِّب الشركات على الدوام طرائق جديدة لاستخدام الذكاء الاصطناعي لإدارة المخاطر بشكل أفضل ولكشف أسرع عن الاحتيال والاستجابة له استجابةً أسرع، بل حتى للتنبؤ بالجرائم والحيلولة دون وقوعها.
ورغم أن تقنية العصر الحالي الأساسية ليست ثورية بضرورة الحال، فإن الخوارزميات التي تستخدمها والنتائج التي يمكن أن تحققها ثورية. على سبيل المثال، عكفت البنوك على استخدام نظم مراقبة المعاملات المصرفية لعقود بناءً على قواعد ثنائية محددة مسبقاً تتطلب التحقق من المخرجات يدوياً. ومعدل النجاح في ذلك متدنٍ عادةً: ففي المتوسط، 2% فقط من المعاملات التي تميزها النظم تعكس في نهاية المطاف جريمة حقيقية أو نية خبيثة. وفي المقابل، تستخدم حلول التعلم الآلي في عصرنا هذا قواعد تنبؤية تتعرف تلقائياً على الشذوذات في مجموعات البيانات. وهذه الخوارزميات المتقدمة بوسعها تقليص عدد الإنذارات الكاذبة إلى حد كبير بترشيح واستبعاد الحالات التي تم تمييزها عن طريق الخطأ، وفي الوقت نفسه الكشف عن حالات أخرى مُغفل عنها باستخدام قواعد تقليدية.
وبالنظر إلى ثروة البيانات المتاحة لدينا اليوم، والآمال العريضة المتزايدة للعملاء والهيئات العامة متى تعلق الأمر بحماية البيانات وإدارتها، قررت شركات عدة أن هذه هي واحدة من الطرائق الوحيدة لمواكبة المجرمين الذين يزدادون حنكةً وبراعة. من المتوقع الآن على سبيل المثال من شركات مواقع التواصل الاجتماعي أن تميط اللثام عن مقاطع الفيديو والرسائل المتعلقة باستقطاب الإرهابيين ومحوها على الفور. في الوقت المناسب، من الممكن أن تصبح أدوات مكافحة الجريمة التي تعمل بالذكاء الاصطناعي متطلباً ضرورياً من الشركات الكبرى، وذلك، نوعاً ما، لأنه لم تكن هناك طريقة أخرى للكشف عن أنماط عبر الملايين من مجموعات البيانات وترجمتها.
لكن تحديد ما إذا كانت حلول مكافحة الجريمة المستندة إلى الذكاء الاصطناعي خياراً استراتيجياً مناسباً لشركة ما يعول على ما إذا كانت المنافع تفوق المخاطر التي ترافقها. ومن بين تلك المخاطر أن الاستنتاجات المشوبة بالتحيز يمكن استخلاصها من الذكاء الاصطناعي بناءً على عوامل العِرق والنوع الاجتماعي والعمر. ومن الممكن أن تشهد الشركات أيضاً ردة فعل سلبية من العملاء الذين يساورهم القلق بشأن احتمالات سوء استخدام بياناتهم أو استغلالها بمراقبة سجلاتهم ومعاملاتهم واتصالاتهم مراقبةً أكثر تركيزاً حتى على البيانات، خاصةً إذا كانت النتائج المُستخلصة تُشارَك مع الحكومة. مؤخراً على سبيل المثال، أُجبر بنك أوروبي على التراجع عن خطته الحصول على إذن عملائه لمراقبة حسابات التواصل الاجتماعي الخاصة بهم كجزء من عملية طلب الرهن العقاري، بعد احتجاج عام على تكتيكاته "الرقابية".
وعليه، كيف تُقيِّم الشركات المتقدمة منافع ومخاطر مكافحة الجرائم المستندة إلى الذكاء الاصطناعي المتطور سريعاً وإدارة المخاطر؟ فيما يلي شرح لبعض الخطوات التي تتخذها تلك الشركات:
تقييم الخيار الاستراتيجي المناسب
على المدراء أولاً، قبل الشروع في تبني مبادرة إدارة المخاطر بواسطة الذكاء الاصطناعي، فهم المَواطِن التي يُحدث فيها التعلم الآلي بالفعل فارقاً كبيراً. فالبنوك مثلاً توقف الجرائم المالية بسرعة أكبر بكثير وبتكلفة أرخص من ذي قبل عادةً باستخدامها الذكاء الاصطناعي لأتمتة العمليات وإجراء تحليلات "التعلم الآلي" المتعددة المستويات. ورغم أن البنوك الآن ترفع تقارير بأنشطة مريبة أكثر بمقدار 20 تقرير تتعلق بغسيل الأموال مما رفعت في العام 2012، فقد سمحت لها أدوات الذكاء الاصطناعي بتقليص أعداد جحافل الموظفين الذين توظفها البنوك لتقييم إنذارات الأنشطة المريبة. وذلك لأن إنذاراتهم الكاذبة تراجعت إلى النصف تقريباً بفضل الذكاء الاصطناعي، ولأن كثير من البنوك قادرة الآن على أتمتة أعمال جمع البيانات الروتينية على يد البشر في ميدان تقييم المستندات. على سبيل المثال، قلصت شركة باي بال (PayPal) أيضاً إنذاراتها الكاذبة باستخدام الذكاء الاصطناعي إلى النصف. ومنع رويال بنك اوف سكوتلاند (Royal Bank of Scotland) خسائر تتجاوز 9 ملايين دولار كان من الممكن أن يتكبدها عملاؤه بعد أن أجرى تجربة لمدة عام كامل مع شركة فوكالينك أناليتيكس (Vocalink Analytics)، إحدى شركات المدفوعات، لاستخدام الذكاء الاصطناعي في مسح معاملات الشركات الصغيرة للكشف عن الفواتير المزيفة.
وتسمح أدوات الذكاء الاصطناعي أيضاً للشركات بتبيان الأنماط المريبة أو العلاقات الخفية حتى على الخبراء. على سبيل المثال، بوسع الشبكات العصبية الاصطناعية تمكين الموظفين من توقع الخطوات التالية للمجرمين المجهولين حتى الذين توصلوا إلى طرائق للتحايل على محفزات إطلاق الإنذارات في نظم الأمن الثنائية المستندة إلى قواعد محددة. وتربط الشبكات العصبية الاصطناعية هذه ما بين ملايين نقاط البيانات من قواعد بيانات غير مترابطة ظاهرياً تحوي كل شيء، بدايةً من تدوينات مواقع الإعلام الاجتماعي مروراً بعناوين بروتوكول الإنترنت المستخدمة في شبكات الاتصال اللاسلكي بالإنترنت في المطارات وحتى الممتلكات العقارية أو الإقرارات الضريبية، وتحدد الأنماط المريبة.
الخطوة التالية في تقييم الحكمة من إطلاق برنامج إدارة المخاطر القائم على الذكاء الاصطناعي تختص بتقييم الشركات إلى أي مدى يتوقع عملاؤها والهيئات الحكومية أن تكون متقدمة على الآخرين. وحتى لو لم يصبح ذلك التزاماً تنظيمياً أو قانونياً، قد تجد الشركات ميزة في أدائها دور رائد في استخدام التحليلات المتقدمة بحيث يتسنى لها المشاركة في وضع معايير على نطاق الصناعة. وبإمكانها المساعدة في ضمان الحفاظ على سلامة المشاركين في القطاع الصناعي والمُشرعيين والمبتكرين التقنيين والعملاء دون المساس بخصوصية الناس وحقوق الإنسان.
تقييم المخاطر الداخلية والحد منها
في الوقت الذي يدرس فيه المديرون كيف يمكن للذكاء الاصطناعي مساعدتهم في تحديد الأنشطة الإجرامية، عليهم أيضاً التفكير في كيفية توافق الذكاء الاصطناعي في استراتيجية الذكاء الاصطناعي الأوسع. ولا ينبغي إجراء إدارة مخاطر الذكاء الاصطناعي والكشف عن الجرائم بشكل منعزل. فمن الممكن أن يساعد إعادة الاختبار بالمقارنة بنماذج أبسط البنوك في تقييد أثر الاستنتاجات التي قد يكون من المتعذر تفسيرها ويخلص إليها الذكاء الاصطناعي، خاصةً إذا كان هناك حدث مجهول لم يدَرَّب عليه النموذج. على سبيل المثال، تستخدم البنوك الذكاء الاصطناعي لمراقبة المعاملات وتقليص عدد الإنذارات الكاذبة، كالأموال الجاري غسلها لأغراض إجرامية. ويُعاد اختبار هذه الإنذارات مقارنةً بنماذج أبسط قائمة على القواعد لتحديد الشذوذات المحتملة. قد يتجاهل نموذج الذكاء الاصطناعي مثلاً عن طريق الخطأ معاملة غسيل أموال ضخمة تستحث عادةً تحذيراً في نظام قائم على قواعد محددة إذا استقر، وفقاً لبيانات مشوبة بالتحيز، على أن ثمة معاملات ضخمة أجراها عملاء مقيمون في أحياء ثرية لا تستحق الكثير من الاهتمام. إن استخدام هذا النهج يمكِّن الشركات من تصميم نماذج تعلم آلي أكثر شفافية، حتى إذا كان ذلك يعني أنها ستعمل ضمن حدود أكثر وضوحاً.
والأهم من ذلك كله، ينبغي على المديرين تقييم ما إذا كانت تحليلات بيانات شركاتهم كافية للتعامل مع أدوات الذكاء الاصطناعي المعقدة. وإن لم يفعلوا، فهم بحاجة إلى تطوير قدرات تحليلات البيانات داخلياً للوصول إلى كتلة حرجة من العمليات المؤتمتة والتحليلات المنظمة.
فهم المخاطر الخارجية والتأهب لها
من الممكن أيضاً أن يتسبب الاستخدام المتزايد لأدوات الذكاء الاصطناعي لمنع وقوع الجرائم في تعاقب المخاطر الخارجية بطرائق غير متوقعة. ومن الممكن أن تخسر أي شركة مصداقيتها لدى الجمهور والمشرعين وغيرهم من أصحاب المصالح بطرائق متعددة؛ على سبيل المثال، إذا كانت هناك إنذارات كاذبة تشير بأصابع الاتهام إلى أشخاص بعينهم عن طريق الخطأ على أنهم "مشتبه بهم" أو "مجرمين" نظراً لتحيز عرقي مدمج بدون قصد في النظام. أو، على الطرف الآخر من الطيف، إذا فاتها أنشطة إجرامية، كالاتجار في المخدرات، يزاولها عملاؤها أو أموال تُوجَّه من دول مفروض عليها عقوبات كإيران. ومن الممكن أن يلجأ المجرمون إلى إجراءات أكثر تطرفاً، وربما كانت عنيفة، للتحايل على الذكاء الاصطناعي. ومن الممكن حتى أن يفر العملاء إلى كيانات أقل عرضة للمراقبة عن كثب خارج الصناعات المُقننة بلوائح محددة. ومن الممكن أن ينشأ حتى مصدر خطر أخلاقي إذا ما أمسى الموظفون يعولون بشكل مفرط على أدوات مكافحة الجرائم التي تعمل بالذكاء الاصطناعي لضبط المجرمين نيابةً عن شركاتهم.
وللحيلولة دون ذلك، تحتاج الشركات إلى ابتكار واختبار مجموعة متنوعة من سيناريوهات الأحداث المتعاقبة الناتجة عن الأدوات التي تعمل بالذكاء الاصطناعي المُستخدمة في تعقب الأنشطة الإجرامية. وللتفوق على دهاء مجرمي غسيل الأموال مثلاً، ينبغي على البنوك إجراء "مناورات حربية" مع مدعيين عامين سابقين ومحققين للتعرف على كيفية تحايل هؤلاء المجرمين على نظامها.
وباستخدام النتائج المستخلصة من تحليل السيناريو، يستطيع المديريون بعد ذلك مساعدة كبار التنفيذيين وأعضاء مجلس الإدارة على اتخاذ قرار بشأن مدى ارتياحهم لاستخدام مكافحة الجرائم القائمة على الذكاء الاصطناعي. وبوسعهم أيضاً وضع كتب توجيهية لإدارة الأزمات تحوي استراتيجيات تواصل داخلية وخارجية بحيث يستطيعون الاستجابة بسرعة عندما يقع (لا محالة) خطب ما.
تستطيع الشركات باستخدام الذكاء الاصطناعي تحديد ألوان الجرائم المحتملة كالاحتيال وغسيل الأموال وتمويل الإرهاب – فضلاً عن جرائم أبسط كسرقات الموظفين والاحتيال الإلكتروني والفواتير المزيفة – لمساعدة الهيئات العامة في ملاحقة هؤلاء المجرمين قضائياً بفعالية وكفاءة أكبر بكثير. لكن هذه المزايا تصاحبها مخاطر ينبغي تقييمها بصراحة وصدق وشفافية لتحديد ما إذا كان استخدام الذكاء الاصطناعي بهذه الطريقة خياراً استراتيجياً مناسباً. لن يكون الأمر سهلاً. لكن التواصل الصريح مع المشرعين والعملاء سيسمح للشركات بالارتقاء للتحدي الذي تواجهه عندما لا تسير الأمور على ما يرام. سيكون للذكاء الاصطناعي لا محالة أثر إيجابي بشدة على الحد من الجرائم في العالم طالما أُدير إدارةً حصيفة.
Full Text:
Companies are using AI to prevent and detect everything from routine employee theft to insider trading. Many banks and large corporations employ artificial intelligence to detect and prevent fraud and money laundering. Social media companies use machine learning to block illicit content such as child pornography. Businesses are constantly experimenting with new ways to use artificial intelligence for better risk management and faster, more responsive fraud detection — and even to predict and prevent crimes.
While today’s basic technology is not necessarily revolutionary, the algorithms it uses and the results they can produce are. For instance, banks have been using transaction monitoring systems for decades based on pre-defined binary rules that require the output to be manually checked. The success rate is generally low: On average, only 2% of the transactions flagged by the systems ultimately reflect a true crime or malicious intent. By contrast, today’s machine-learning solutions use predictive rules that automatically recognize anomalies in data sets. These advanced algorithms can significantly reduce the number of false alerts by filtering out cases that were flagged incorrectly, while uncovering others missed using conventional rules.
Given the wealth of data available today, and the rising expectations of customers and public authorities when it comes to protecting and managing that data, many companies have decided that this is one of the only ways to keep up with increasingly sophisticated criminals. Today, for example, social media companies are expected to uncover and remove terrorist recruitment videos and messages almost instantly. In time, AI-powered crime-fighting tools could become a requirement for large businesses, in part because there will be no other way to rapidly detect and interpret patterns across billions of pieces of data.
But determining whether AI crime-fighting solutions are a good strategic fit for a company depends on whether the benefits outweigh the risks that accompany them. One such risk is that biased conclusions can be drawn from AI based on factors like ethnicity, gender, and age. Companies can also experience backlash from customers who worry that their data will be misused or exploited by even more data-intensive surveillance of their records, transactions, and communications — especially if those insights are shared with the government. Recently, for example, a European bank was forced to backtrack on its plan to ask customers for permission to monitor their social media accounts as part of its mortgage application process, after a public outcry over its “Big Brother” tactics.
So how are leading-edge companies evaluating the benefits and risks of rapidly evolving AI crime-fighting and risk management? Below, we explain some of the steps they’re taking:
Evaluating the strategic fit
Before embarking on an AI risk management initiative, managers must first understand where machine learning is already making a big difference. Banks, for example, are halting financial crimes much more quickly and cheaply than they used to by using AI for automating processes and conducting multilayered “deep learning” analyses. Even though banks now file 20 times more suspicious activity reports linked to money laundering than they did in 2012, AI tools have permitted them to shrink the armies of people they employ to evaluate alerts for suspicious activities. That’s because their false alerts have fallen by as much as half thanks to AI, and because many banks are now able to automate routine human legwork in document evaluation. For example, using artificial intelligence, Paypal has also cut its false alerts in half. And Royal Bank of Scotland prevented losses of over $9 million to customers after conducting a year-long pilot with Vocalink Analytics, a payments business, to use AI to scan small business transactions for fake invoices.
AI tools also allow companies to surface suspicious patterns or relationships invisible even to experts. For instance, artificial neural networks can enable employees to predict the next moves of even unidentified criminals who have figured out ways around alert triggers in binary rule-based security systems. These artificial neural networks link millions of data points from seemingly unrelated databases containing everything from social media posts to internet protocol addresses used on airport Wi-Fi networks to real estate holdings or tax returns, and identify patterns.
The next step in assessing the wisdom of launching an AI risk management program is for companies to evaluate to what extent customers and government authorities will expect them to be ahead of the curve. Even if it does not become a regulatory or legal obligation, companies might find it advantageous to play a leading role in the use of advanced analytics so they can take part in setting industrywide standards. They can help ensure that industry participants, regulators, technology innovators, and customers are being kept safe, without trampling on people’s privacy and human rights.
Assessing and mitigating internal risks
As managers examine how AI can assist them in identifying criminal activities, they should also consider how it fits in with their broader AI strategy. AI risk management and crime detection should not be conducted in isolation. Back-testing against simpler models can help banks limit the impact of potentially inexplicable conclusions drawn by artificial intelligence, especially if there is an unknown event for which the model has not been trained. For example, banks use artificial intelligence to monitor transactions and reduce the number of false alerts they receive on potential rogue transactions, such as money that’s being laundered for criminal purposes. These are back-tested against simpler rules-based models to identify potential outliers. An AI model may, for example, mistakenly overlook a large money laundering transaction that would normally trigger an alert in a rule-based system if it determines, based on biased data, that large transactions made by customers who reside in wealthy neighborhoods do not merit as much attention. Using this approach enables companies to design more transparent machine learning models, even if that means they operate within more explicit bounds.
Most of all, managers should assess whether their company’s data analytics are sufficient to handle complex AI tools. If not, they need to develop data analytics capabilities in-house to reach a critical mass of automated processes and structured analytics.
Understanding and preparing for external risks
Increased use of AI tools for crime prevention could also cause external risks to cascade in unexpected ways. A company could lose its credibility with the public, regulators, and other stakeholders in myriad ways — for example, if there are false alerts that mistakenly identify people as “suspicious” or “criminal” due to a racial bias unintentionally built into the system. Or, at the other end of the spectrum, if they miss criminal activities, like drug trafficking conducted by their clients or funds channeled from sanctioned countries such as Iran. Criminals could resort to more extreme, and potentially violent, measures to outmaneuver AI. Customers could flee to less closely monitored entities outside of regulated industries. A moral hazard could even develop if employees become too reliant on AI crime-fighting tools to catch criminals for them.
To prevent this from happening, companies need to create and test a variety of scenarios of cascading events resulting from AI-driven tools used to track criminal activities. To outsmart money launderers, for example, banks should conduct “war games” with ex-prosecutors and investigators to discover how they would beat their system.
With results produced through scenario analysis, managers can then help top executives and board members decide how comfortable they are with using AI crime-fighting. They can also develop crisis management playbooks containing internal and external communication strategies so they can react swiftly when things (inevitably) go wrong.
By using AI, companies can identify areas of potential crimes such as fraud, money laundering, and terrorist financing — in addition to more mundane crimes such as employee theft, cyber fraud, and fake invoices — to help public agencies with prosecuting these offenses much more effectively and efficiently. But with these benefits come risks that should be openly, honestly, and transparently assessed to determine whether using AI in this way is a strategic fit. It will not be easy. But clear communication with regulators and customers will allow companies to rise to the challenge when things go wrong. AI will eventually have a hugely positive impact on reducing crime in the world — as long as it is managed well.