تمكنت سيارة فيراري الفاخرة الإيطالية من استخدام تكنولوجيا الذكاء الاصطناعي لوقف محاولة الاحتيال رفيعة المستوى من قبل مسؤول تنفيذي بارز لتقليد شخصية بينديتو فينيا.
كشف المصدر المستنير عن تفاصيل عن الحادث الذي شهدته الشركة في يوليو 2024 ، عندما بدأ أحد المديرين التنفيذيين في تلقي رسائل من حسابات مع صورة Venia من خلال تطبيق WhatsApp ، يتحدث عن اتفاقية الاستحواذ السرية التي تتطلب إجراءات مالية في حالات الطوارئ.
بدأت المحاولة بأخبار مشبوهة ، مدعيا أنها تأتي من الرئيس التنفيذي ، مطالبة بإعداد اتفاق سري ، تليها دعوة المتحدث الرسمي التي جعلت تقليد الصوت والنغمة في فينيا ، جنوب إيطاليا ، بدقة مذهلة من خلال البرامج المزيفة العميقة.
كما أكدت مصادر مطلع على التحقيق الداخلي للشركة ، “هذا التقليد مقنع للغاية ، لكن بعض نغمات الصوت الدقيقة تثير شكوك حول الرئيس التنفيذي لنفس الهدف.”
ما هو عنوان هذا الكتاب الذي أوصت به مؤخرًا؟
ما يلفت الانتباه أنه عندما يسأل الرئيس التنفيذي سؤالًا شخصيًا ، تكشف حيل الذكاء الاصطناعي المتقدم ببساطة: “ما هو عنوان الكتاب الذي أوصت به مؤخرًا؟”
يعد الحادث جزءًا من موجة من الهجمات التي تستهدف الشركات الكبرى التي تستخدم تكنولوجيا التزوير العميقة ، حيث تم الإعلان سابقًا
خسر هونغ كونغ متعدد الجنسيات 26 مليون دولار بعد ضحايا احتيال مماثل.
.
يحذر خبراء الأمن السيبراني من أن هذه الهجمات تشكل الموجة التالية من التهديدات التي ستواجه الشركات الدولية كتكنولوجيا لاستنساخ الصوت والصور تتطور بسرعة ، والتي يمكن أن تستخدم المعرفة الشخصية للتحقق من واحدة في هذه الحالة.
وقال ستيفانو زانيرو ، أستاذ الأمن السيبراني في جامعة بوليتكينكو دي ميلانو: “المشكلة هي أن هذه التقنيات أصبحت أكثر دقة” ، مضيفًا: “الشركات تحتاج إلى بروتوكولات أمنية أكثر تعقيدًا لمعالجة هذا المخاطر”.
لم يعلق فيراري رسميًا على الحادث ، لكن المصادر القريبة من الشركة أكدت أنها بدأت في اتخاذ تدابير أمنية أخرى لحماية مديريها التنفيذيين من محاولات مماثلة ، بما في ذلك آليات الإنجاز المهمة متعددة الطبقات للاتصالات الداخلية.