نحن نعيش في وقت حيث لم يعد كافيا أن نرى أو نسمع شيئا لنعتبره حقيقةفيديوهات مبالغ في واقعيتها لسياسيين يقولون أشياء فظيعة، وتسجيلات صوتية لمسؤولين تنفيذيين يأمرون بتحويلات بملايين الدولارات، أو صور حميمة مزيفة متداولة على وسائل التواصل الاجتماعي... كل هذا ممكن بفضل... deepfakesويمكن لأي واحد منا أن يكون ضحية، ليس من الضروري أن تكون مشهورًا.
لفهم ما هي هذه التهديدات بشكل كامل، وكيف يتم إنشاؤها، وما هي المخاطر التي تنطوي عليها، وفوق كل شيء، كيف يمكننا اكتشافهم وحماية أنفسنا؟ أصبحت مهارة رقمية أساسية، تكاد تكون بنفس أهمية معرفة كيفية التمييز بين البريد الإلكتروني والنص المكتوب. التصيد أو قم بتكوين إعدادات الخصوصية الخاصة بهاتفك المحمول.
ما هي تقنية Deepfakes ولماذا أصبحت شائعة جدًا؟
التزييفات العميقة هي محتوى سمعي بصري مزيف (فيديو أو صورة أو صوت) تم إنشاؤه أو التلاعب به باستخدام الذكاء الاصطناعي لتبدو أصلية تمامًا. يأتي المصطلح من الجمع بين "عميق" (بواسطة التعلم العميق أو التعلم العميق) و "زائف(خطأ). أي أن هذه عمليات تزوير عميقة تعتمد على خوارزميات التعلم الآلي القادرة على تقليد الملامح والإيماءات والأصوات البشرية بواقعية قد تخدع أي شخص للوهلة الأولى.
على الرغم من أن التلاعب بالصور والأصوات له تاريخ طويل، بدأت طفرة التزييف العميق الحالية حوالي عام 2017بدأ كل شيء عندما بدأ أحد مستخدمي ريديت بنشر مقاطع فيديو إباحية، استبدل فيها رقميًا وجوه ممثلات مشهورات بوجوه أشخاص آخرين. ومنذ ذلك الحين، ازداد انتشار هذه التقنية، وأصبحت أدواتها متاحة بشكل متزايد، وأصبح من الصعب اكتشاف النتائج.
لقد أدى هذا التطور إلى تحويل التزييف العميق إلى شيء أكثر جدية من مجرد الترفيه: إنهم بالفعل أداة للتضليل والاحتيال والتنمر الإلكتروني والابتزاز.، مع تأثير مباشر على سمعة الأفراد والشركات والمؤسسات، وحتى على العمليات الانتخابية واستقرار البلدان.
كيف تعمل التكنولوجيا وراء التزييف العميق
لإنشاء فيديو مزيف مقنع، لا يكفي استخدام برنامج تحرير الفيديو. ويكمن المفتاح في استخدام الشبكات العصبية العميقة وكميات كبيرة من البيانات. (صور، فيديوهات، تسجيلات صوتية). من هذه المواد، يتعلم الذكاء الاصطناعي شكل وجه الشخص وصوته وحركاته، ليتمكن من تقليدها لاحقًا في سياقات جديدة.
تعتمد التقنية الأكثر شيوعًا على ما يُعرف باسم الشبكات التنافسية التوليدية (GAN)في هذا النموذج، تتعاون شبكتان عصبيتان وتتنافسان: إحداهما تُولّد صورًا أو مقاطع صوتية مزيفة، والأخرى تحاول اكتشاف ما إذا كانت حقيقية أم مزيفة. تتكرر العملية مرات عديدة، بحيث يتمكن المُولّد تدريجيًا من إنتاج محتوى يعجز المُميّز عن تحديده على أنه مزيف.
في الممارسة العملية، لإنشاء مقطع فيديو للوجه، يتم تغذية النظام بآلاف إطارات الوجه الأصلي والوجه المراد تركيبهتكتشف خوارزمية "الترميز" السمات المشتركة (شكل الوجه، بنية العظام، النسب الأساسية) وتُختزلها إلى تمثيل داخلي. ثم يُعيد جهازان "فكّاك التشفير" بناء تلك الوجوه: أحدهما للشخص أ والآخر للشخص ب. بتبادل المعلومات بينهما، يتبنى وجه الشخص أ تعابير وحركات وإيماءات الشخص ب.
وفي حالة الصوت، تقوم النماذج بتحليل خصائص مثل الجرس، والإيقاع، والتجويد، أو نطق الأصوات المعقدة. تحتوي كل ثانية من صوت الإنسان على آلاف نقاط البيانات التي يمكن للذكاء الاصطناعي تعلمها.إلى حد استنساخ الأصوات ببضع دقائق فقط من الصوت النظيف، مما يجعل من الصعب بشكل متزايد التمييز بين التسجيل الحقيقي والتسجيل المركب.
الأنواع الرئيسية من التزييفات العميقة المتداولة اليوم
في عالم التزييف العميق يمكننا التمييز بين عدة فئات وفقًا لنوع المحتوى الذي تم التلاعب به. الأكثر شيوعًا تركز على الوجه والصوتعلى الرغم من وجود متغيرات أكثر تقدمًا.
من ناحية أخرى لدينا ما يسمى "الوجوه العميقة"وهي عبارة عن صور أو مقاطع فيديو مزيفة عميقة إنشاء أو استبدال الوجوه بأكملهايمكن البدء بمواد حقيقية، بدمج وجوه عدة أشخاص، أو حتى توليدها من الصفر، مما ينتج عنه وجوه لأفراد غير موجودة لكنها تبدو حقيقية تمامًا. تُستخدم هذه التقنيات لتركيب وجه شخص على جسد شخص آخر، ولإنشاء شخصيات اصطناعية.
من ناحية أخرى هي "أصوات عميقة"التي تُركّز على الصوت. هنا، يتم تدريب الذكاء الاصطناعي على تسجيلات صوت الضحية، ثم يُنتج رسائل جديدة تبدو متطابقة تقريبًا مع الشخص الحقيقي.وقد تم استخدام هذا النوع من التزوير بالفعل في عمليات الاحتيال في الشركات، مثل القضية الشهيرة التي قام فيها أحد المديرين التنفيذيين بتحويل أكثر من 200.000 ألف دولار معتقدًا أنه كان يطيع أمرًا من رئيسه التنفيذي، بينما كان في الواقع يستمع إلى صوت مستنسخ.
هناك أيضًا متغيرات أكثر تطوراً تجمع بين عدة عناصر: التزييفات العميقة التي تغير الإيماءات والوضعيات والبيئةأو تلك التي تعدل ليس فقط الوجه ولكن الجسم بأكمله، على الرغم من أن هذا يتطلب قوة حسابية أكبر بكثير وهو أقل شيوعًا في البيئات المنزلية.
كيفية إنشاء Deepfake في الممارسة العملية
على الرغم من أنه قد يبدو تقنيًا للغاية، إلا أنه في الوقت الحاضر إن إنشاء Deepfake أساسي هو أمر في متناول أي شخص لديه جهاز كمبيوتر لائق أو حتى هاتف محمول قوي.كلما زادت المعرفة بالذكاء الاصطناعي والتحرير ومرحلة ما بعد الإنتاج لدى الشخص الذي ينتج العمل، كلما كانت النتيجة أدق وأكثر واقعية، ولكن هناك برامج "أوتوماتيكية تقريبًا" تقوم بمعظم العمل.
وبعبارات مبسطة، تتبع العملية عادةً الخطوات التالية: أولاً، يتم جمع العديد من الصور أو مقاطع الفيديو أو التسجيلات الصوتية للشخص المستهدف؛ ثم يتم تدريب النماذج على تعلم سماته المميزة؛ وأخيرًا، يتم تطبيق هذا النموذج على مقطع فيديو أو صوت أساسي لتوليد محتوى مزيف.بعد ذلك، يتم تصحيح الآثار المرئية (الحواف الغريبة، والظلال في غير موضعها، والحركات الغريبة) باستخدام التحرير التقليدي.
في الحالات الأكثر تقدمًا، تُستخدم تقنيات معقدة مثل شبكات GAN التي سبق مناقشتها. يُنتج المولد إطارًا خاطئًا، ويُقيّمه المُميز، ويُحسب الخطأ، وتُعدّل المعلمات؛ وبالتالي، يتطلب الأمر آلاف التكرارات. يصل إلى مستوى من الواقعية يمكن أن يتجاوز العين البشرية المتوسطةبالإضافة إلى ذلك، هناك تعديلات على اللون والإضاءة ومزامنة الشفاه ومزج الصوت لصقل النتيجة.
وفي مجال الصور الثابتة، يتم أيضًا استخدام ما يلي: أدوات تحليل خطأ الضغط المحدد (ELA) وتحليل البيانات الوصفية لتحديد أي تلاعب محتمل. مع ذلك، يدرك أكثر المبدعين تطورًا هذه التقنيات، ويحاولون محو أو تعديل تلك المعلومات حتى لا تكشف الخدعة.
استخدامات إيجابية لتقنية Deepfakes: ليس كل شيء مظلمًا
على الرغم من سمعتها السيئة، فإن التزييف العميق أيضًا ولها تطبيقات مشروعة وإبداعية في مجالات مثل السينما والفن والتعليم والطب.المشكلة لا تكمن في التكنولوجيا في حد ذاتها، بل في طريقة استخدامها.
في صناعة السمعيات والبصريات تم استخدامها ل لتجديد أو "إحياء" الممثلين رقميًا ولإكمال المشاهد عندما تعذر تصويرها فعليًا. كما تُستخدم لتعديل الحوار في الدبلجة، وتصحيح أخطاء التصوير، أو إعادة تمثيل شخصيات تاريخية في الأفلام الوثائقية. أمثلة مثل إعادة تمثيل الأميرة ليا أو المعارض الغامرة مثل "دالي يعيش" توضح مدى قدرة هذه التقنيات على إثراء التجربة الثقافية.
في التعليم والتوعية، تسمح تقنية التزييف العميق إنشاء صور رمزية واقعية تشرح المفاهيم المعقدة أو تحاكي المواقف الحرجة للمتخصصين في التدريب (الطيارون، والعاملون في مجال الرعاية الصحية، وقوات الأمن، وغيرهم). يُعدّ إنشاء سيناريوهات "خاطئة ولكن معقولة" بشكل مُتحكّم فيه مفيدًا في إعداد استجابات الأزمات.
وفي المجال العلاجي، تم اقتراح استخدامات حساسة للغاية، مثل: لمساعدة بعض الناس على التغلب على الحزن لمواجهة الذكريات المؤلمة من خلال إعادة تمثيل مُحكمة، دائمًا ضمن إطار أخلاقي وسريري صارم للغاية. كما يُستكشف استنساخ الصوت لاستعادة القدرة على التواصل جزئيًا للمرضى الذين فقدوها، كما حدث مع شخصيات مشهورة استعادت نبرة صوتها بفضل نماذج صوتية مُدربة على تسجيلات قديمة.
في قطاع الأعمال والتجارة الإلكترونية، يتم دراسة تطبيقات مثل غرف القياس الافتراضية مع الصور الرمزية الشخصية، أو ألعاب الفيديو التي يتحدث فيها الشخصيات بأصوات أكثر طبيعية يتم إنشاؤها بواسطة الذكاء الاصطناعيوهذه هي الاستخدامات التي يمكن أن تضيف قيمة دون المساس بالحقوق إذا ما تم إدارتها بشكل جيد.
المخاطر والاستخدامات الخبيثة: عندما تتحول تقنية التزييف العميق إلى أسلحة
المشكلة الكبرى هي أنه في الأيدي الخطأ، تصبح هذه التكنولوجيا غير آمنة. أداة قوية للخداع والتلاعب والإيذاءيتم بالفعل استخدام تقنية Deepfakes في العديد من المجالات المثيرة للقلق.
أحد أخطرها هو التضليل والتلاعب السياسييمكن لمقاطع فيديو لقادة يعلنون انسحابات عسكرية، أو تصريحات متفجرة، أو اعترافات ملفقة، أن تؤثر على الرأي العام، أو تزعزع استقرار الأسواق المالية، أو تُوتر العلاقات الدولية. وقد شهدت صراعات حديثة حالاتٍ نُشِرَت فيها خطابات استسلام كاذبة أو إعلانات سياسية ملفقة.
لقد أصبحت أيضًا أداة شائعة في حملات التشهير والهجمات على السمعةيكفي فيديو مُعدّل يحتوي على محتوى مُسيء لتشويه صورة الشخص العامة، حتى لو ثبت لاحقًا أنه مُزيّف. يحدث الضرر الاجتماعي والنفسي في غضون ساعات، بفضل الانتشار السريع لوسائل التواصل الاجتماعي وتطبيقات المراسلة.
لم يسلم المجال الاقتصادي أيضًا: حيث أصبحت عمليات التزييف العميق للصوت والفيديو الآن مكونًا رئيسيًا في عمليات الاحتيال المتطورة وسرقة الهوية وعمليات الاحتيال على الرؤساء التنفيذيينينتحل المهاجمون صفة كبار المديرين التنفيذيين أو الموردين، باستخدام المكالمات أو مكالمات الفيديو أو الرسائل الصوتية التي تبدو حقيقية بشكل مقنع، للحصول على التحويلات المالية أو البيانات الحساسة أو الوصول إلى أنظمة حيوية.
حيث يصبح الوضع مقلقًا بشكل خاص في إنشاء مواد جنسية غير موافقةمعظم محتوى التزييف العميق المُكتشف على الإنترنت إباحي، وغالبًا ما يُدمج وجوه نساء مشهورات أو أشخاص عاديين في فيديوهات حميمة. ويُستخدم هذا لأغراض التنمر الإلكتروني، والابتزاز الجنسي، والانتقام، أو حتى الإذلال البسيط، مع عواقب قانونية ونفسية بالغة الخطورة على الضحايا.
هناك أيضًا ظاهرة أكثر دقة ولكنها خطيرة بنفس القدر: ما يسمى "نهاية المعلومات" أو أزمة الثقةعندما يعتاد الناس على رؤية محتوى زائف ذي مصداقية عالية، قد ينتهي بهم الأمر إلى عدم الثقة بكل شيء، حتى الأدلة الحقيقية. وهذا يُهيئ بيئة مثالية لرفض الأدلة غير الملائمة بزعم "التلاعب بها".
برمجيات التزييف العميق: عندما يمتزج الخداع بالهجوم الإلكتروني
في السنوات الأخيرة ظهر مفهوم يجمع بين عالمين خطيرين: عالم التزييف العميق وعالم البرمجيات الخبيثة. DeepfakeMalware هو المصطلح المستخدم لوصف هجمات معينة تستخدم الذكاء الاصطناعي التوليدي لدعم حملات التضليل أو الاحتيال المالي أو التجسس الإلكتروني.، من خلال دمج مقاطع الفيديو أو الصوت المزيفة في سلسلة الهجوم.
على سبيل المثال، يمكن للمهاجم التسلل إلى مؤتمر فيديو للشركات من خلال انتحال شخصية أحد المديرين التنفيذيينباستخدام وجوه وأصوات مُستنسخة، يمكنهم الحصول على معلومات سرية أو إصدار تعليمات لا يشكك فيها أحد. كما يمكن نشر مقاطع فيديو مزيفة لخفض سعر سهم شركة، أو إثارة الذعر في الأسواق، أو التلاعب بقرارات الاستثمار.
ولا تقتصر هذه الهجمات على الخداع الاجتماعي: يمكن للبرامج الضارة التقليدية الاستفادة من التأثير النفسي للتزييف العميقيمكن لمقطع فيديو مثير للقلق أن يخدع المستخدمين ويدفعهم إلى تنزيل "تصحيح" مفترض وهو في الواقع فيروس، أو إلى فتح مرفق ضار متخفي في صورة وثائق رسمية للشركة.
ولاحتواء هذه الأنواع من التهديدات، من الضروري دمج ممارسات الأمن السيبراني الجيدة (تحديث برامج مكافحة البرامج الضارة، وتجزئة الشبكة، والمصادقة القوية) مع تدريب محدد في اكتشاف التلاعبات الرقمية والتحقق من الهويات أثناء المكالمات أو مكالمات الفيديو أو رسائل البريد الإلكتروني العاجلة.
كيفية اكتشاف التزييف العميق: العلامات والحيل العملية
ليس من السهل دائمًا التعرف على التزييف العميق، ولكن لا تزال هناك تفاصيل يمكن أن تكشف الخداع، وخاصة في المونتاج الأقل صقلًا. من المفيد تدريب عينك وأذنك على ملاحظة بعض العيوب الدقيقة..
وفيما يتعلق بالجوانب البصرية، هناك بعض المؤشرات الشائعة: رمش غير طبيعي (نادر جدًا أو غير متكرر)حركات وجهية متيبسة بعض الشيء، بشرة ناعمة أو بلاستيكية بشكل مفرط، حواف مشوشة حول الوجه، تغييرات غريبة في الخلفية، أو أخطاء في الإضاءة (ظلال غير طبيعية، انعكاسات غير متطابقة). عادةً ما تكون اللقطات قريبة لتجنب الحاجة إلى معالجة الجسم بالكامل، وتكون مقاطع الفيديو قصيرة عادةً لأن إنتاج عدة ثوانٍ من لقطات عالية الجودة يتطلب قوة معالجة هائلة.
ومن الجدير أيضًا الاهتمام بـ التماسك بين الوجه وبقية الجسمرقبة غير متناسقة، أيادٍ غير ظاهرة، وضعيات غريبة، أو ملابس لا تتناسب مع السياق. يساعد تشغيل الفيديو بالحركة البطيئة على اكتشاف القفزات أو "الخلل" داخل الفم أو اللسان أو الأسنان، وهي مناطق يصعب إعادة إنشائها بدقة.
في الصوت، الدليل الواضح هو مزامنة الشفاهقد تكون التغييرات الغريبة في بيئة الصوت ملحوظة أيضًا، مثل الانقطاعات المفاجئة في الضوضاء الخلفية، أو التجويدات الرتيبة إلى حد ما، أو مشاكل مع بعض الأصوات الاحتكاكية (مثل "f" أو "s")، والتي لا تزال النماذج تنطقها بطريقة اصطناعية إلى حد ما.
إلى جانب هذه العلامات الجسدية، من الضروري دائمًا تحليل أصل وسياق المحتوىمن نشرها أولاً؟ على أي منصة؟ هل تناقلتها وسائل إعلام موثوقة أم مجرد حسابات مجهولة؟ ابحث عن المصدر الأصلي، وتحقق منه عبر وسائل إعلام موثوقة، واستخدم خدمات التحقق من صحة المعلومات. حقيقة تدقيق يقلل بشكل كبير من فرص الوقوع في الفخ.
وأخيرا، من الضروري تطبيق الحس السليم والتفكير النقديإذا كان مقطع الفيديو يتناسب بشكل كبير مع ما تريد مجموعة معينة تصديقه، أو إذا كان المحتوى فاضحًا للغاية ولكنه يتم تداوله فقط من خلال قنوات معينة، فقد يكون الأمر مشكلة. سلاسل واتسابلقد حان الوقت للتشكك، والتحقيق أكثر قليلاً، وبالتأكيد ليس للمشاركة باستخفاف.
أدوات وتقنيات احترافية لتحديد التزييف العميق
بالإضافة إلى قدراتنا التحليلية الخاصة، هناك بالفعل نظام بيئي من أدوات متخصصة للكشف عن التلاعبوتستخدم بعض الشركات، مثل Microsoft Video Authenticator، أو Deepware Scanner، أو Sensity AI، نماذج الذكاء الاصطناعي الخاصة بها للبحث عن الأنماط الدقيقة التي تكشف عن المحتوى الاصطناعي.
وفي المجال الجنائي، يتم اللجوء أيضًا إلى تحليل البيانات الوصفية (المعلومات الفنية حول الملف: جهاز الالتقاط، التاريخ، برنامج التحرير المستخدم، إلخ.) وتحليل مستوى خطأ الضغط (ELA)، والذي يمكنه إظهار مناطق من الصورة ذات تدهور مختلف، وهي مناطق نموذجية للمناطق التي تم تعديلها أو لصقها فوق مناطق أخرى.
وتركز الأساليب المتقدمة الأخرى على المخالفات الهندسية أو الفسيولوجيةتتضمن هذه التقنيات: اختلافات دقيقة في اتساع حدقة العين، واختلافات طفيفة في معدل ضربات القلب يتم اكتشافها بصريًا في مناطق مختلفة من الوجه، وتناقضات ثلاثية الأبعاد في الإضاءة، وما إلى ذلك. هذه التقنيات معقدة ولكنها تسمح بمعدلات نجاح عالية جدًا في البيئات الخاضعة للرقابة.
في حالة الصوت، تُركز الخوارزميات على المعلمات التي لا تدركها الأذن البشرية: أطياف التردد، والاختلافات الدقيقة في درجة الصوت والإيقاع، والأنماط غير المألوفة في نطق بعض الأصوات أو في نهاية الجملة. حاليًا، الآلات أفضل من البشر في التمييز بين العديد من الأصوات الاصطناعيةبشرط أن يكون لديهم تسجيلات مرجعية أصلية.
وعلى الرغم من هذه التطورات، فإن الواقع هو أن لا يزال السباق مستمرا بين أولئك الذين يصنعون التزييفات العميقة وأولئك الذين يكتشفونها.إن كل تحسن في الجيل يتطلب تحسينات في تقنيات التحقق، مما يجعل من الضروري مواصلة البحث، والأهم من ذلك، عدم نسيان أن خط الدفاع الأول يظل المواطن المطلع جيدًا.
التأثير الاجتماعي والأخلاقي والقانوني لتقنيات التزييف العميق
لا تشكل تقنية Deepfakes تحديات تقنية فحسب؛ إنهم يتناولون القضايا الأخلاقية والقانونية والاجتماعية بشكل مباشركما أنها تؤثر على الحق في الصورة الشخصية، والخصوصية، والشرف، وحرية المعلومات، وحتى الثقة في المؤسسات.
أحد أكبر المخاطر هو أن يتم استخدامها كـ "دليل" في الإجراءات القانونية أو الإعلاميةفي حين أن إثبات صحة مقطع فيديو يزداد صعوبة، فإن توجيه اتهامات قوية والدفاع ضد الاتهامات الملفقة يزدادان تعقيدًا. كما يمكن اختراق أنظمة التعرف على الوجوه والصوت إذا تمكن المهاجمون من خداعها باستخدام تقنيات التزييف العميق المتطورة.
ومن وجهة نظر أخلاقية، يفتح النقاش حول إلى أي مدى يجوز إعادة خلق الناس (أحياء أو أموات) دون موافقتهم؟حتى لأغراض تبدو نبيلة أو فنية. بدأ مفهوم "الإرث الرقمي" ومن يحق له استخدام صورة شخص ما أو صوته بعد وفاته يتبلور في مختلف الأنظمة القانونية.
وعلى الصعيد التنظيمي، تتخذ بلدان مختلفة خطوات مختلفة. لقد أقرت ولايات أمريكية مثل فرجينيا وكاليفورنيا وتكساس قوانين محددة لمقاضاة مُنتجي المحتوى الإباحي المُزيف المُخالف للموافقة، ومنع استخدامه خلال فترات الانتخابات. فرضت الصين قيودًا صارمة للغاية على هذا النوع من المحتوى، ويُصدر الاتحاد الأوروبي أول قانون رئيسي له بشأن الذكاء الاصطناعي، والذي يُصنّف الأنظمة وفقًا لمستوى خطورتها، ويشترط الشفافية في استخدام المحتوى المُصنّع.
ومع ذلك، التنظيم يتخلف دائمًا عن التكنولوجياالتحدي يكمن في إيجاد توازن بين حماية الحقوق الأساسية (الخصوصية، والشرف، وعدم التمييز) وعدم خنق الابتكار. علاوة على ذلك، ليس من السهل تحديد المسؤولية: هل يتحمل المسؤولية من يصمم الأداة، أو من ينتج الفيديو، أو من ينشره، أو من يجعله ينتشر على نطاق واسع؟
ولهذه الأسباب كلها، تصر المنظمات الدولية وقوات الأمن والكيانات مثل اليوروبول أو الأمم المتحدة على ضرورة وجود آلية دولية مستقلة للتحقيق في هذه الجرائم. "المعرفة التقنية والأخلاقية"تثقيف المواطنين - وخاصة الشباب - حول مخاطر إساءة استخدام هذه التقنيات، والعواقب القانونية المترتبة على نشر المحتوى الضار، وأهمية التصرف بحكمة قبل إرسال أو نشر أي شيء.
ماذا يمكنك أن تفعل لحماية نفسك من التزييف العميق؟
في مواجهة مشكلة معقدة كهذه، من السهل أن نعتقد أنه لا يمكن فعل الكثير على المستوى الفردي، ولكن هذا ليس صحيحا. هناك عدة خطوات عملية يمكن لأي شخص اتخاذها لتقليل تعرضه للخطر وضعفه..
الأول هو حماية بصمتك الرقميةقلل من كمية الصور والفيديوهات والمقاطع الصوتية الشخصية التي تنشرها علنًا على منصات التواصل الاجتماعي، وخاصةً على الملفات الشخصية العامة. كلما زادت المواد التي يمتلكها المهاجم، سهّل عليه تدريب نموذج مقنع. مراجعة إعدادات الخصوصية والتفكير مليًا قبل نشر أي محتوى مُضرّ بداية جيدة.
الثاني هو اعتماد موقف نقدي تجاه أي محتوى يلفت الانتباهتأكد دائمًا من المصدر، وتحقق من عدة وسائل إعلام، واستشر منصات التحقق من الحقائق، وإذا بدا لك أي شيء مثيرًا للريبة، فلا تشاركه. إن تجنب المساهمة في انتشار التزييف العميق المحتمل خطوة مهمة للحد من انتشاره.
في المجال المهني والتجاري، من المهم تعزيز بروتوكولات التحقق من الهويةلا تُطيع الأوامر الحساسة (مثل الدفع، تغيير كلمات المرور، إرسال مستندات مهمة) بناءً على مكالمة هاتفية أو فيديو فقط. إن تطبيق أنظمة "ثنائية القناة" (مثل التأكيد عبر طريقة مختلفة) واستخدام مصادقة قوية يُقلل بشكل كبير من هامش المناورة لدى المهاجمين.
وأخيرا، فإنه لا يضر أبدا أن... التدريب على أساسيات الأمن السيبراني والتضليل والتفكير النقديإن فهم كيفية عمل مجرمي الإنترنت، وكيفية إنشاء الخدع، والأدوات التي لدينا لاكتشافهم يضعنا في وضع أكثر أمانًا ضد أي تزييف عميق يصل إلى هاتفنا المحمول.
إن تقدم الذكاء الاصطناعي يعد بمواصلة تحسين جودة التزييف العميق، ولكنه يدفع أيضًا إلى أنظمة كشف أفضل وأطر قانونية أكثر وضوحًا؛ في هذا السيناريو المتغير، فإن الحفاظ على هدوئك، والحذر من أي شيء مثالي للغاية، والتحقق دائمًا من المعلومات هي أفضل الاستراتيجيات للتنقل في بيئة رقمية حيث، بشكل متزايد، ليس كل ما يبدو حقيقيًا هو كذلك بالفعل، ولكن يمكننا أن نتعلم التمييز بينهما..