غير مصنف

تركيب الصور بالذكاء الاصطناعي يهدد الخصوصية والسمعةاليوم الخميس، 18 سبتمبر 2025 09:26 صـ

تركيب الصور عبر الذكاء الاصطناعي.. خطر متصاعد يهدد الخصوصية والسمعة

شهدت السنوات الأخيرة انتشارًا واسعًا لتقنيات تركيب الصور والفيديو باستخدام الذكاء الاصطناعي، مثل تقنيات ديب فيك (Deepfake) وفيس سواپ (Face-Swap)، التي أصبحت متاحة بسهولة لعامة المستخدمين. تسمح هذه التقنيات بإنشاء صور ومقاطع فيديو مركبة تُظهر وجوه أشخاص عاديين أو مشاهير في مواقف أو أماكن لم يتواجدوا فيها أصلًا، مما يثير مخاوف كبيرة تتعلق بالخصوصية، الاحتيال، والتشهير.

آلية عمل التقنية

في السابق، كانت عمليات التعديل والتركيب عملية معقدة تتطلب خبرة برمجية عالية. أما اليوم، فقد سهّل الذكاء الاصطناعي الأمر عبر شبكات عصبية قادرة على تبديل السمات البصرية بدقة عالية، لمطابقة ملامح وجه المصدر مع صورة أو فيديو الهدف. يكفي أن يرفع المستخدم صورة “سيلفي” أو صورة لمشهور إلى أحد التطبيقات أو المواقع، لتتم عملية التركيب تلقائيًا بنتائج تبدو واقعية للغاية للمشاهد العادي.

أبرز المخاطر

  1. انتهاك الخصوصية والحقوق الشخصية
    يمكن استغلال صورة أي شخص لأغراض تجارية أو تشويه سمعته دون إذن، وقد شهدت المحاكم بالفعل قضايا رفعها مشاهير لمنع نشر صور معدّلة.
  2. الاحتيال المالي والهندسي
    يستخدم مجرمون محتوى مزيفًا لإجراء عمليات نصب، مثل مكالمات أو فيديوهات منسوبة لمسؤولين أو رجال أعمال، ما يؤدي إلى خسائر مالية ضخمة وسرقة بيانات حساسة.
  3. التلاعب الإعلامي والتشهير
    قد تُستخدم هذه التقنيات لإنشاء روايات سياسية أو اجتماعية زائفة، أو لإنتاج محتوى فاضح يسبب ضررًا نفسيًا ومعنويًا للضحايا، سواء كانوا مشاهير أو أشخاصًا عاديين.
  4. استغلال البيانات الشخصية
    رفع صورك إلى تطبيقات غير موثوقة قد يجعلها جزءًا من قواعد بيانات تُستخدم لتدريب نماذج ذكاء اصطناعي أخرى، دون ضمانات كافية لحماية هذه الصور أو تحديد كيفية استخدامها مستقبلًا.

تطبيقات شائعة

من أبرز التطبيقات والمنصات المستخدمة:

  • Reface: يتيح تركيب الوجوه على صور وفيديوهات قصيرة.
  • DeepSwap (Deepswap.ai): منصة متخصصة في تبديل الوجوه وإنشاء فيديوهات ديب فيك.
  • FaceApp: يغير ملامح الوجه أو عمر الشخص، وأحيانًا يُستخدم كأساس لتعديلات أعمق.
  • YouCam Video، BasedLabs، وMake Your Own AI Influencer: تقدم خدمات مشابهة بواجهات سهلة الاستخدام.

مؤشرات عالمية

أظهرت تقارير أمنية واقتصادية ارتفاعًا كبيرًا في استهداف المشاهير بمحتوى مزيف عام 2025 مقارنة بعام 2024، مع خسائر مالية ضخمة لشركات وحكومات بسبب الاحتيال القائم على المحتوى الصناعي.

خطوات للحماية

  • تجنّب رفع صور واضحة أو عالية الدقة إلى تطبيقات غير موثوقة.
  • قراءة شروط الاستخدام وسياسات الخصوصية لأي منصة قبل منحها صلاحية الوصول إلى صورك.
  • استخدام إعدادات الخصوصية في حسابات التواصل الاجتماعي لتقليل فرص سرقة الصور.
  • الاحتفاظ بنسخ من أي محتوى مريب وتقديم بلاغ رسمي للموقع أو اتخاذ إجراءات قانونية عند الضرورة.
  • التأكد من مصدر المحتوى قبل إعادة مشاركته، واستخدام أدوات التحقق عند مشاهدة مواد مثيرة للشك.

تؤكد هذه المخاطر ضرورة فرض تشريعات أكثر صرامة لحذف المحتوى المزيف ومحاسبة المسؤولين عنه، مع توعية المستخدمين بأهمية حماية بياناتهم وصورهم في عصر أصبح فيه التلاعب البصري أكثر سهولة وواقعية من أي وقت مضى

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة الطريق ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من الطريق ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

انتبه: مضمون هذا الخبر تم كتابته بواسطة مصر اليوم ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من مصر اليوم ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا