كيف نكتشف إن كانت الصور المتداولة على مواقع التواصل الاجتماعي وليدة برنامج ذكاء اصطناعيّ؟
فيما يلجأ البعض إلى تطبيقات الذكاء الاصطناعيّ لدواعٍ فنيّة وترفيهيّة أو على سبيل الفكاهة، يعمد البعض الآخر لإنتاج صور مرتبطة بأحداث سياسيّة، ما يجعلها مادّة للتضليل.
(توضيحية – Getty Images)
شهدت تقنيات الذكاء الاصطناعي في الآونة الأخيرة تطوّرات، مبهرة جعلت الصور التي تنتجها تبدو شديدة الواقعيّة ورائجة عبر مواقع التواصل الاجتماعي، ما أثار تساؤلات حول سبل تمييزها عن الصور الحقيقيّة.
وصحيحٌ أنه حتى اليوم ما من أداة يمكن أن تجزم إن كانت الصورة وليدة برنامج ذكاء اصطناعيّ، إلا أنّ عناصر عدّة قد تُشير إلى استخدام هذه التقنيّة، بحسب خبراء قالت وكالة “فرانس برس” إنها استطلعت آراءهم بين 21 و23 آذار/ مارس 2023.
وتتيح بعض برمجيات الذكاء الاصطناعي، مثل “دال-إي” و”ميدجورني” و”ستايبل ديفيوجن” و”كرايون”، توليد صور بمجرّد إدخال بعض الكلمات المفتاحية باللغة الإنجليزيّة مثل (رائد فضاء يركب حصانا على كوكب المريخ). حينها سيركّب البرنامج تلك الصورة مستعينا بقواعد بيانات ضخمة من الصور.
وفيما يلجأ البعض إلى تطبيقات الذكاء الاصطناعيّ لدواعٍ فنيّة وترفيهيّة أو على سبيل الفكاهة، يعمد البعض الآخر لإنتاج صور مرتبطة بأحداث سياسيّة، ما يجعلها مادّة للتضليل.
وتنتشر هذه الصور على أنّها حقيقيّة، على الرغم من إشارة صانعيها إلى أنّها نتاج برنامج ذكاء اصطناعي.
وهناك أدوات عدّة لكشف هذه الصور وأخرى قيد التطوير، إلا أنّ النتائج التي تقدّمها ليست حاسمة، وقد تعطي نتائج غير دقيقة.
ويشرح المهندس المتخصّص في الذكاء الاصطناعيّ في جامعة فيينا للتكنولوجيا، ديفيد فيشينغر، أنّ عمل الذكاء الاصطناعي لا يقوم على مجرّد اقتطاع أجزاء من صورٍ لإعادة تركيبها، إذ “يلجأ إلى ملايين بل مليارات الصور لاستخراج بيانات منها، ثمّ يعيد استخدامها لتوليد صورة جديدة تماماً”.
ولهذه الأسباب لا يمكن لمنصّات كشف الذكاء الاصطناعي أن تصل لنتائج حاسمة في هذه المرحلة.
وبحسب الخبراء، أفضل طريقة لكشف حقيقة الصورة تكمن في العثور على مصدرها الأصليّ. فالصور التي انتشرت في الآونة الأخيرة على أنّها لتوقيف الرئيس الأميركي السابق دونالد ترامب، نشرها أولاً إليوت هيغينز، مؤسّس موقع “بيلينغكات” المتخصّص بالتحقيقات باستخدام المصادر المفتوحة على الإنترنت.
وأشار إليوت هيغينز عند نشر الصور في 20 آذار/ مارس الماضي إلى أنها ليست حقيقية بل أنّه هو من صمّمها.
وفي الصورة، تظهر وجوه عدد من رجال الأمن مموهة وتظهر أقدام وأذرع شرطيين هنا وهناك بطريقة غير منطقية.
وصورة أخرى لاقت رواجا عبر مواقع التواصل الاجتماعي، زعم ناشروها أنّها تُظهر الرئيس الروسي، فلاديمير بوتين، راكعا يقبّل يد نظيره الصينيّ خلال زيارته الأخيرة إلى موسكو.
لكنّ التغطية الصحافية لهذا اللقاء تُظهر أن الصالة التي اجتمع فيها الرئيسان في الحقيقة مختلفة تماما عن تلك الظاهرة في الصورة المتداولة، ما يثير الشكوك حول صحّتها. على الصورة المزيفة، يظهر عامود في القاعة مكسور، وبعض الكراسي غريبة الشكل، ورأس فلاديمير بوتين كبير بشكل غير اعتيادي.
وتترك بعض برامج الذكاء الاصطناعي علامة على الصور، على غرار الشّريط الملّون على صور برنامج “دال إي”، وعلامة القلم الملوّن على صور برنامج “كرايون”. لكنّ هذه العلامات يمكن إزالتها بسهولة. عدا عن أنّ البرامج الأخرى لا تترك في الأصل علامات.
وعلى الرغم من التطوّرات التي شهدتها هذه البرمجيات، إلا أنّ الصور التي تنتجها لا تزال تشوبها عيوبٌ وتشوّهات خصوصا على مستوى الأذنين أو اليدين. فبعض الصور تظهر شديدة الواقعيّة لولا أن التحديق فيها يُظهر مثلا يدا من ستّة أصابع.
ومن العناصر الأخرى التي يصعب على برمجيات الذكاء الاصطناعي أنّ تقلّدها: الشعر والأسنان والنظّارات الشمسيّة، إذ تظهر أحيانا وكأنها ذائبة على وجه الأشخاص.
وينصح فينسنت تيراسي، وهو أحد مؤسسي شركة “درافت آند غول” الناشئة، بالتحديق بالظلال والمرايا وانعكاس الأشكال على المياه في الصور، لأن ذلك قد يُظهر وجود عناصر غير منطقية تشير إلى أن الصورة وليدة برنامج ذكاء اصطناعي، داعيا للتركيز خصوصا على خلفية الصورة، فكلمّا ابتعدت العناصر عن وسط الصورة تزيد نسبة تعرّضها لتشوّهات، كما يقول.
وفي هذا الإطار، تحذّر الأستاذة في جامعة “فريديريك -2” في نابولي والمتخصصة في الذكاء الاصطناعيّ، أناليزا فيردوليفا من أنّ برمجيات الذكاء الاصطناعي تتحسّن يوما بعد يوم، ويجب ألاّ نركن فقط إلى هذه الأخطاء التي تظهر حاليا.
المصدر: عرب 48