الذكاء الاصطناعيّ و”موت الحقيقة”: عالم جديد يتشكّل
تطرح معالجة موت الحقيقة في الذكاء الاصطناعي تحديات معقدة، وتتمثل إحدى العقبات المهمة في الافتقار إلى المساءلة والشفافية في تطوير هذه الأنظمة
خلال السنوات القليلة الماضية، برز الذكاء الاصطناعي باعتباره تقدمًا تقنيًا رائدًا مع إمكانية إعادة تشكيل جوانب مختلفة من الوجود البشري، ومع ذلك، عندما أصبحت أنظمة الذكاء الاصطناعي أكثر اندماجًا في حياتنا، بدأت ظاهرة مثيرة للقلق في الظهور وهي “موت الحقيقة”، وتشير هذه الظاهرة إلى تآكل الحقيقة الموضوعية وظهور المعلومات المتلاعب بها أو المتحيزة أو الملفقة داخل المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
وحقق الذكاء الاصطناعي خطوات ملحوظة في السنوات الأخيرة، مع تطورات مثل التعلم العميق ومعالجة اللغة الطبيعية مما يسمح للآلات بمعالجة وتحليل وإنشاء محتوى يشبه الإنسان، وفي حين أن هذه التطورات قد فتحت إمكانيات جديدة، فقد قدمت أيضًا تحديات تتعلق بمصداقية وموثوقية المعلومات التي تولدها أنظمة الذكاء الاصطناعي.
والبيانات التي تغذي هذه الأنظمة هي أحد المساهمين الأساسيين في موت الحقيقة في الذكاء الاصطناعيّ، حيث يتم تدريب نماذج الذكاء الاصطناعي على مجموعات بيانات ضخمة مصدرها الإنترنت، والتي تحمل بطبيعتها تحيزات وأخطاء موجودة في المحتوى الذي ينشئه الإنسان، وغالبًا ما يتم تضخيم هذه التحيزات بواسطة خوارزميات الذكاء الاصطناعي، مما يؤدي إلى إدامة المعلومات المضللة والصور النمطية ووجهات النظر المشوهة، وعلاوة على ذلك، يمكن الآن للنصوص والوسائط التي تم إنشاؤها بواسطة الذكاء الاصطناعي محاكاة المحتوى الذي أنشأه الإنسان بسلاسة، مما يؤدي إلى طمس الخطوط الفاصلة بين الواقع والتلفيق.
وبحسب خبراء، فإن موت الحقيقة في الذكاء الاصطناعي له عواقب بعيدة المدى، لا سيما في انتشار المعلومات المضللة، حيث يمكن للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، من المقالات الإخبارية إلى منشورات وسائل التواصل الاجتماعي، أن ينشر بسهولة معلومات خاطئة إلى جمهور عالمي، ونظرًا لأن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي يصبح أكثر إقناعًا، فقد يعاني الأفراد من صعوبة التمييز بين المعلومات الحقيقية والملفقة، كما يمكن أن يؤدي تآكل الثقة في صحة المعلومات إلى مجتمع مضلل ومنقسّم ومستقطب، وعلاوة على ذلك، يمكن للجهات الخبيثة استغلال المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي للدعاية والتلاعب.
وتعتبر تقنية “ديب فيك” التي تستخدم الذكاء الاصطناعي لإنشاء مقاطع فيديو واقعية لأفراد يقولون أو يفعلون أشياء لم يفعلوها في الواقع، هي مثال على إمكانية خداع الذكاء الاصطناعي على نطاق واسع، حيث يمكن أن يكون لمثل هذه التلاعبات آثار مدمرة على السياسة والاقتصاد والعلاقات الشخصية.
وتطرح معالجة موت الحقيقة في الذكاء الاصطناعي تحديات معقدة، وتتمثل إحدى العقبات المهمة في الافتقار إلى المساءلة والشفافية في تطوير أنظمة الذكاء الاصطناعي، حيث العديد من نماذج الذكاء الاصطناعي هي ملكية خاصة، مما يعني أن إجراءاتها الداخلية وعمليات صنع القرار لا يمكن الوصول إليها بشكل مفتوح، وهذا التعتيم يعيق الجهود المبذولة لتحديد وتصحيح التحيزات، مما يؤدي إلى نقص المساءلة عن انتشار المعلومات المضللة والمحتوى المتحيز.
وفاقت الوتيرة السريعة لتطوير الذكاء الاصطناعي قدرة الأطر التنظيمية على المواكبة، ونتيجة لذلك، لا يوجد غالبًا إطار قانوني أو أخلاقي واضح لمواجهة التحديات التي يفرضها المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، حيث يمكن أن يسمح هذا التأخير التنظيمي للمعلومات المضللة بالانتشار دون رادع.
وحسب دراسات، فيجب أن تتناول جهود مكافحة موت الحقيقة في الذكاء الاصطناعي الأبعاد التكنولوجية والمجتمعية، مثل التركيز على تحسين جودة بيانات التدريب، ويمكن أن يؤدي تنظيم مجموعات البيانات المتنوعة والممثلة والخالية من التحيزات إلى التخفيف من تضخيم المعلومات المضللة بواسطة نماذج الذكاء الاصطناعي، بالإضافة إلى ذلك، يجب تصميم الخوارزميات لتحديد التحيزات وتصحيحها بشكل فعال، مما يضمن أن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي يعكس تصويرًا أكثر دقة للواقع، وكذلك تعتبر الشفافية جانبًا مهمًّا آخر، من خلال تشجيع مطوري الذكاء الاصطناعي على تبني ممارسات مفتوحة المصدر، مما يسمح للباحثين والجمهور بفحص وتقييم أنظمة الذكاء الاصطناعي بحثًا عن التحيزات وعدم الدقة، وهذا من شأنه أن يعزز المساءلة والثقة، ويمنع الانتشار الكبير للمعلومات المضللة.
ويثير موت الحقيقة في الذكاء الاصطناعي أسئلة أخلاقية عميقة حول دور البشر في تنسيق المعلومات ونشرها، وبينما تساهم أنظمة الذكاء الاصطناعي في إنتاج المحتوى، يظل البشر مسؤولين عن نشرها واستهلاكها، حيث تقترح دراسات دمج برامج محو الأميّة الإعلاميّة والتكنولوجيّة في المناهج التعليمية لتزويد جيل الشباب بالمهارات اللازمة للتنقل في مشهد معلوماتي يزداد تعقيدًا، وإلى جانب التعليم، تلعب شركات التكنولوجيا دورًا استباقيًا في معالجة انتشار المعلومات المضللة من خلال تصميم منصات تعطي الأولوية للمعلومات الدقيقة وتعاقب على نشر الأكاذيب.
المصدر: عرب 48