الإفصاح: الآراء والأفكار الواردة هنا تنتمي فقط إلى المؤلف ولا تمثل آراء ووجهات نظر هيئة تحرير crypto.news.
يُعزز الذكاء الاصطناعي الجرائم المالية بشكل كبير، ودفاعات القطاع المالي تتخلف عن الركب. يستخدم المجرمون الآن الذكاء الاصطناعي لإنشاء مقاطع فيديو مُزيفة مُقنعة، وتصميم هجمات تصيد مُصممة خصيصًا، وتزوير هويات مُصطنعة على نطاق واسع. هذه الأساليب تتطور بسرعة تفوق قدرة أنظمة الامتثال التقليدية على تتبعها، مما يكشف عن خلل فادح في الأساليب الحالية.
على الرغم من حجم هذا التهديد، تُسارع العديد من المؤسسات إلى نشر أنظمة الذكاء الاصطناعي الخاصة بها دون ضمان سهولة شرحها وشفافيتها، أو حتى فهمها بالكامل. ما لم تُصبح سهولة الشرح شرطًا أساسيًا لأي نظام ذكاء اصطناعي يُستخدم في الامتثال المالي، فإننا نُخاطر باستبدال شكل من أشكال التعتيم بآخر، مما لن يُعزز الثقة لدى الجمهور أو الجهات التنظيمية.
لقد بدأ سباق التسلح بالفعل
يُستخدم الذكاء الاصطناعي لتسريع الجرائم القديمة وتقليل تكلفتها، وتسهيل ارتكاب أنواع جديدة من الجرائم. خذ على سبيل المثال الارتفاع الأخير في عمليات انتحال الهوية الاصطناعية. يستخدم مجرمو الإنترنت الذكاء الاصطناعي لدمج البيانات الحقيقية والمزيفة في هويات واقعية ومُختلقة. يمكن لهذه الملفات الشخصية فتح حسابات، والحصول على ائتمان، وتجاوز أنظمة التحقق، مع صعوبة تمييزها تقريبًا عن المستخدمين الحقيقيين.
أضافت تقنية التزييف العميق (Deepfake) سلاحًا جديدًا إلى ترسانتها. أصبح من الممكن الآن توليد انتحال مقنع لشخصيات رؤساء تنفيذيين أو جهات تنظيمية أو حتى أفراد عائلاتهم بأقل جهد. تُستخدم هذه الفيديوهات والمقاطع الصوتية لبدء معاملات احتيالية، وتضليل الموظفين، والتسبب في تسريبات بيانات داخلية.
حتى التصيد الاحتيالي تطور. تستطيع أدوات اللغة الطبيعية المدعومة بالذكاء الاصطناعي صياغة رسائل شخصية للغاية وصحيحة لغويًا، مصممة خصيصًا لكل هدف بناءً على بياناته العامة وسلوكه على الإنترنت وسياقه الاجتماعي. هذه ليست رسائل البريد العشوائي المكتوبة بأخطاء إملائية كما كانت في الماضي، بل هي هجمات مصممة خصيصًا لكسب الثقة واستخلاص القيمة. في عالم العملات المشفرة، يزدهر التصيد الاحتيالي، والذكاء الاصطناعي يُسرّع هذا التوجه.
أدوات الامتثال عالقة في عصر ما قبل الذكاء الاصطناعي
لا يقتصر التحدي على سرعة أو نطاق هذه التهديدات فحسب، بل يكمن أيضًا في عدم التوافق بين ابتكار المهاجمين وجمود المدافعين. فأنظمة الامتثال التقليدية القائمة على القواعد تتسم بالتفاعلية والضعف، وتعتمد على مُحفِّزات مُحددة مسبقًا وتقنية التعرف الثابت على الأنماط.
يقدم التعلم الآلي والتحليلات التنبؤية حلولاً أكثر تكيفًا، إلا أن العديد من هذه الأدوات غامضة. فهي تُنتج نتائج غير واضحة حول كيفية التوصل إلى النتيجة. إن مشكلة "الصندوق الأسود" هذه تتجاوز مجرد قيد فني، بل تُمثل مشكلة امتثال.
بدون إمكانية التفسير، لا توجد مساءلة. إذا عجزت مؤسسة مالية عن تفسير كيفية رصد نظام الذكاء الاصطناعي الخاص بها لمعاملة ما (أو فشله في رصدها)، فلن تتمكن من الدفاع عن قرارها أمام الجهات التنظيمية أو العملاء أو المحاكم. والأسوأ من ذلك، أنها قد لا تتمكن من اكتشاف متى يتخذ النظام نفسه قرارات متحيزة أو متضاربة.
القدرة على التفسير هي متطلب أمني
يجادل البعض بأن اشتراط قابلية تفسير أنظمة الذكاء الاصطناعي سيُبطئ الابتكار. هذا قصر نظر. فالقابلية للتفسير ليست ترفًا، بل هي شرطٌ للثقة والشرعية. وبدونها، ستُسيّر فرق الامتثال أعمالها دون وعي. قد تكتشف الشذوذ، لكنها لن تعرف السبب. قد تُوافق على النماذج، لكنها لن تتمكن من تدقيقها.
يجب على القطاع المالي التوقف عن اعتبار سهولة التفسير ميزة تقنية. بل يجب أن تكون شرطًا أساسيًا للتنفيذ، لا سيما بالنسبة للأدوات المتعلقة بمعرفة العميل/مكافحة غسل الأموال، وكشف الاحتيال، ومراقبة المعاملات. هذه ليست مجرد ممارسة فضلى، بل هي بنية تحتية أساسية.
في مجالٍ سريع التطور كالعملات المشفرة، حيث الثقة هشة أصلًا والتدقيق شديد، يصبح هذا الأمر أكثر إلحاحًا. يجب ألا يكون استخدام الذكاء الاصطناعي في الأمن والامتثال فعالًا فحسب، بل يجب أن يكون أيضًا عادلًا وقابلًا للتدقيق ومفهومًا بشكل واضح.
إن الاستجابة المنسقة أمر غير قابل للتفاوض
لم تعد الجرائم المالية مجرد حوادث معزولة. ففي عام ٢٠٢٤ وحده، بلغ حجم المعاملات غير المشروعة ٥١ مليار دولار، وهو رقم يُرجّح أنه لا يعكس دور الهجمات المُعزَّزة بالذكاء الاصطناعي. لا يمكن لأي شركة أو جهة تنظيمية أو مُزوِّد تكنولوجيا مُعالجة هذا التهديد بمفردها.
ويجب أن تتضمن الاستجابة المنسقة ما يلي:
- فرض إمكانية التفسير في أي نظام ذكاء اصطناعي يستخدم في وظائف الامتثال عالية المخاطر.
- تمكين استخبارات التهديدات المشتركة من الكشف عن أنماط الهجوم الجديدة عبر الشركات.
- تدريب المتخصصين في الامتثال على استجواب وتقييم مخرجات الذكاء الاصطناعي.
- طلب إجراء عمليات تدقيق خارجية لأنظمة التعلم الآلي المستخدمة في الكشف عن الاحتيال ومعرفة العميل.
السرعة مهمة دائمًا. لكن السرعة دون شفافية تُعتبر عبئًا، وليست ميزة.
الذكاء الاصطناعي ليس محايدًا، وإساءة استخدامه ليست كذلك أيضًا
يجب أن يتغير الحوار. لا يكفي التساؤل عما إذا كان الذكاء الاصطناعي "يعمل" وفقًا للقوانين، بل يجب أن نتساءل عما إذا كان يمكن الوثوق به. هل يمكن استجوابه؟ تدقيقه؟ فهمه؟
إن عدم الإجابة على هذه الأسئلة يُعرّض النظام المالي بأكمله للخطر. ليس فقط من قِبل المجرمين، بل من الأدوات التي نعتمد عليها لردعهم.
إذا لم نُرسِخ الشفافية في دفاعاتنا، فلن ندافع عن النظام، بل سنُؤتمت فشله.
