كيف نقلق بذكاء من “الذكاء الاصطناعيّ”؟
أثار التسارع الأخير في كلّ من قوّة أنظمة الذكاء الاصطناعيّ ووضوحها، والوعي المتزايد بقدراتها وعيوبها، مخاوف من أنّ التكنولوجيا تتقدّم الآن بسرعة بحيث لا يمكن السيطرة عليها بأمان. ومن هنا جاءت الدعوة إلى التوقّف
“هل يجب أن نؤتمت جميع الوظائف، بما في ذلك الوظائف الّتي ترضينا؟ هل يجب أن نطوّر عقولًا غير بشريّة قد يفوق عددها في النهاية عددنا، وتتفوّق على ذكائنا… وتحلّ محلّنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟” طرحت هذه الأسئلة الشهر الماضي في رسالة مفتوحة من معهد مستقبل الحياة (منظّمة غير حكوميّة). ودعت إلى “توقّف” لمدّة ستّة أشهر في إنشاء أكثر أشكال الذكاء الاصطناعيّ تقدّمًا، ووقعه شخصيّات بارزة في مجال التكنولوجيا بما في ذلك إيلون ماسك. إنّه المثال الأبرز حتّى الآن على الطريقة الّتي أثار فيها التقدّم السريع للذكاء الاصطناعيّ القلق بشأن الأخطار المحتملة للتكنولوجيا.
فاجأت “نماذج اللغات الكبيرة” الجديدة (LLMs)، على وجه الخصوص، بعض مطوّريها بقدراتها غير المتوقّعة، وهي النماذج نفسها المستخدمة في تشات جي بي تي، وهو روبوت محادثة من تصميم أوبن إيه آي. تتضمّن قدراتها “الناشئة” كلّ شيء بدءًا من حلّ الألغاز المنطقيّة وكتابة أكواد الكمبيوتر إلى معرفة الأفلام من ملخّصات الحبكة المكتوبة بالرموز التعبيريّة.
ستعمل هذه النماذج على تغيير علاقة البشر بأجهزة الكمبيوتر والمعرفة وحتّى مع أنفسهم. يجادل أنصار الذكاء الاصطناعيّ بشأن قدرته على حلّ المشكلات الكبيرة من خلال تطوير عقاقير جديدة، أو تصميم موادّ جديدة للمساعدة في مكافحة تغيّر المناخ، أو حلّ تعقيدات توليد الطاقة بقوّة الاندماج النوويّ. بالنسبة لآخرين فإنّ في الأمر مخاطرة، حيث إنّ قدرات البرنامج قد أخذت تتفوّق على قدرات مبتكريه تحيي سيناريو كارثة الخيال العلميّ للآلة الّتي تتفوّق على مخترعها، ولهذا على الأرجح عواقب وخيمة.
يجعل هذا المزيج من الإثارة والخوف من الصعب الموازنة بين الفرص والمخاطر. ولكن يمكن تعلّم الدروس من الصناعات الأخرى ومن التحوّلات التكنولوجيّة السابقة. ما الّذي تغيّر لجعل الذكاء الاصطناعيّ أكثر قدرة؟ إلى أيّ مدى يجب أن نخاف؟ وماذا يجب أن تفعل الحكومات؟
نستكشف هنا طرق عمل نماذج اللغة الكبيرة واتّجاهها المستقبليّ. اعتمدت الموجة الأولى من أنظمة الذكاء الاصطناعيّ الحديثة، الّتي ظهرت قبل عقد من الزمن، على بيانات التدريب المصنّفة بعناية، وبمجرّد تعرّضها لعدد كاف من الأمثلة المصنّفة، يمكنها تعلّم القيام بأشياء مثل التعرّف على الصور أو نسخ الكلام. لا تتطلّب أنظمة اليوم تصنيفًا مسبقًا، ونتيجة لذلك يمكن تدريبها باستخدام مجموعات بيانات أكبر بكثير مأخوذة من مصادر عبر الإنترنت. يمكن تدريب نماذج اللغة الكبيرة في الواقع على الإنترنت بالكامل، وهو ما يفسّر قدراتها، الجيّدة والسيّئة.
أصبحت هذه القدرات واضحة للجمهور على نطاق أوسع عندما أصدر تشات جي بي تي في نوفمبر. استخدمه مليون شخص في غضون أسبوع، و100 مليون في غضون شهرين. وسرعان ما استخدم في توليد المقالات المدرسيّة وخطابات الزفاف. دفعت شعبيّة تشات جي بي تي وخطوة مايكروسوفت لدمجه في محرّك البحث بينغ الشركات المنافسة إلى إطلاق برامج الدردشة الآليّة أيضًا.
أسفرت بعض هذه النتائج عن نتائج غريبة. اقترح روبوت الدردشة في متصفّح بينغ على أحد الصحفيّين أن يترك زوجته. اتّهم أستاذ قانون تشات جي بي تي بالتشهير. تنتج نماذج اللغة الكبيرة إجابات تحمل جزءًا من الحقيقة، ولكنّها غالبًا ما تحتوي على أخطاء واقعيّة أو افتراءات صريحة. ومع ذلك، بدأت مايكروسوفت وغوغل وشركات التكنولوجيا الأخرى في دمجها في منتجاتها لمساعدة المستخدمين على إنشاء المستندات وأداء مهامّ أخرى.
أثار التسارع الأخير في كلّ من قوّة أنظمة الذكاء الاصطناعيّ ووضوحها، والوعي المتزايد بقدراتها وعيوبها، مخاوف من أنّ التكنولوجيا تتقدّم الآن بسرعة بحيث لا يمكن السيطرة عليها بأمان. ومن هنا جاءت الدعوة إلى التوقّف، والقلق المتزايد من أنّ الذكاء الاصطناعيّ يمكن أن يهدّد ليس فقط الوظائف والدقّة الواقعيّة والسمعة، ولكنّ وجود البشريّة نفسها.
انقراض؟ تمرّد؟
يعود الخوف من سرقة الآلات للوظائف إلى قرون. ولكن حتّى الآن خلقت التكنولوجيا الجديدة وظائف جديدة لتحلّ محلّ تلك الّتي دمّرتها. تميل الآلات إلى أن تكون قادرة على أداء بعض المهامّ، وليس غيرها، ممّا يؤدّي إلى زيادة الطلب على الأشخاص الّذين يمكنهم القيام بالمهامّ الّتي لا تستطيع الآلات القيام بها. هل يمكن أن تكون هذه المرّة مختلفة؟ لا يمكن استبعاد حدوث خلل مفاجئ في أسواق العمل، حتّى لو لم يكن هناك أيّ مؤشّر على حدوثه. تميل التكنولوجيا السابقة إلى استبدال المهامّ غير الماهرة ، لكنّ نماذج اللغة الكبيرة يمكن أن تنهي بعض مهامّ ذوي الياقات البيضاء، مثل تلخيص المستندات وكتابة التعليمات البرمجيّة.
كانت درجة الخطر الوجوديّ الّذي يشكّله الذكاء الاصطناعيّ موضع نقاش ساخن. الخبراء منقسمون. في دراسة استقصائيّة لباحثي الذكاء الاصطناعيّ أجريت في عام 2022، اعتقد 48٪ أنّ هناك احتمالًا بنسبة 10٪ على الأقلّ أن يكون تأثير الذكاء الاصطناعيّ “سيّئًا للغاية (مثل الانقراض البشريّ)”. لكن 25٪ قالوا إنّ الخطر كان 0٪. وقدّر الباحث الوسيط الخطر عند 5٪. الكابوس هو أنّ الذكاء الاصطناعيّ المتقدّم يسبّب ضررًا على نطاق واسع، من خلال صنع السموم أو الفيروسات، أو إقناع البشر بارتكاب أعمال إرهابيّة. ليس من الضروريّ أن يكون لها نيّة شرّيرة: يخشى الباحثون من أن يكون للذكاء الاصطناعيّ في المستقبل أهداف لا تتوافق مع أهداف منشئيّها من البشر.
لا ينبغي رفض مثل هذه السيناريوهات. لكنّ جميعها تنطوي على قدر هائل من التخمين، وقفزة كبيرة عن التكنولوجيا المتاحة اليوم. يتخيّل الكثيرون أنّه سيكون للذكاء الاصطناعيّ في المستقبل وصول غير مقيّد إلى الطاقة والمال وقوّة الحوسبة، وهي قيود حقيقيّة اليوم، ويجب أن يمنع وصول أيّ ذكاء اصطناعيّ متمرّد إليها مستقبلًا. يميل الخبراء إلى المبالغة في تقدير المخاطر في مجالاتهم، مقارنة بالمتنبّئين الآخرين (ولدى السيّد ماسك، الّذي أطلق شركته الخاصّة الناشئة في مجال الذكاء الاصطناعيّ، مصلحة في تخلّص منافسيه من أدواتهم). فرض قوانين ثقيلة، أو وقف العمل على الذكاء الاصطناعيّ اليوم يبدو مبالغة. كما أنّ الوقف المؤقّت لن يكون قابلًا للتنفيذ.
توجد حاجة إلى تنظيم العمل في مجال الذكاء الاصطناعيّ، ولكن لأسباب أخفّ وطأة من إنقاذ البشريّة. تثير أنظمة الذكاء الاصطناعيّ الحاليّة مخاوف حقيقيّة بشأن التحيّز والخصوصيّة وحقوق الملكيّة الفكريّة. مع تقدّم التكنولوجيا، يمكن أن تصبح مشاكل أخرى واضحة. المفتاح هو الموازنة بين وعود الذكاء الاصطناعيّ وتقييم مخاطره، والاستعداد للتكيّف معه.
تتبنّى الحكومات حتّى الآن ثلاث مقاربات مختلفة في التعامل مع التكنولوجيا الجديدة. اقترحت بريطانيا نهجًا “خفيفًا” بدون قواعد أو هيئات تنظيميّة جديدة، مع تطبيق اللوائح الحاليّة على أنظمة الذكاء الاصطناعيّ، والهدف هو تعزيز الاستثمار وتحويل بريطانيا إلى “قوّة عظمى في مجال الذكاء الاصطناعيّ”. اتّبعت أمريكا نهجًا مشابهًا، على الرغم من أنّ إدارة بايدن تبحث الآن عن وجهات نظر عامّة حول شكل التنظيم الّذي ستفرضه.
يتّخذ الاتّحاد الأوروبّيّ خطًّا أكثر صرامة، إذ يصنّف قانونه المقترح الاستخدامات المختلفة للذكاء الاصطناعيّ حسب درجة المخاطرة، ويتطلّب مراقبة وكشف أكثر صرامة مع ارتفاع درجة المخاطر، على سبيل المثال، ابتداء من توصيات الموسيقى والأغاني وصولًا إلى السيّارات ذاتيّة القيادة. بعض استخدامات الذكاء الاصطناعيّ محظورة تمامًا، مثل الإعلانات القائمة على التلاعب بوعي الجماهير وأخذ المعلومات البيومتريّة من الناس عن بعد، وستغرم الشركات الّتي تنتهك القواعد. تبدو هذه القاعد لبعض النقّاد خانقة للغاية.
يقول آخرون بوجود هذه الحاجة إلى نهج أكثر صرامة، وأنّه يجب على الحكومات التعامل مع الذكاء الاصطناعيّ مثل الأدوية، مع وجود جهة مخصّصة لها، واختبارات قاسية وسلسلة موافقات تسبق إصدار البرامج للعامّة. تقوم الصين ببعض من هذا، حيث تطلب من الشركات تسجيل منتجات الذكاء الاصطناعيّ والخضوع لمراجعة أمنية قبل إصدارها. لكن دافع الصين سياسيّ وليس أمني: أحد المتطلّبات الأساسيّة هو أنّ إنتاج ذكاء اصطناعيّ يعكس “القيمة الأساسيّة للاشتراكيّة”.
ما المطلوب؟ من غير المرجّح أن يكون النهج خفيفًا كافيًا، فإذا كان الذكاء الاصطناعيّ تقنيّة مهمّة مثل السيّارات والطائرات والأدوية، وهناك سبب وجيه للاعتقاد بأنّها كذلك، فعلينا أن نضع له قواعد وقوانين جديدة، وبناء على ذلك فإنّ نموذج الاتّحاد الأوروبّيّ هو الأقرب إلى المطلوب، على الرغم من أنّ نظام التصنيف الخاصّ به صارم، وعلينا وضع نهج قائم على مبادئ الاتّحاد الأوروبّيّة، والّذي سيكون أكثر مرونة. وهذا يتطلّب إفصاح الشركات عن كيفيّة تدريب الأنظمة، وكيفيّة عملها وكيفيّة مراقبتها، وهذا يعني وجود جهة للتفتيش عليها، وحينه يكون العمل على تنظيمها مرنًا وقابلًا للمقارنة مع القواعد المماثلة في الصناعات الأخرى.
قد يؤدّي هذا بتشديد التنظيم بمرور الوقت، إذا لزم الأمر، وعندئذ سيكون من الطبيعيّ وجود جهة تنظيميّة مخصّصة للذكاء الاصطناعيّ، وسيكون من الطبيعيّ وجود معاهدات حكوميّة دوليّة، مشابهة لتلك الّتي تحكم الأسلحة النوويّة، في حال ظهرت أدلّة معقولة على وجود خطر وجوديّ. ولرصد هذا الخطر، يمكن للحكومات تشكيل هيئة على غرار CERN، مختبر فيزياء الجسيمات، ويمكنه دراسة سلامة الذكاء الاصطناعيّ وأخلاقيّاته، وهي المجالات الّتي لا تتحفّز الشركات للاستثمار فيها بقدر ما يرغب المجتمع.
تقدّم هذه التكنولوجيا القويّة للبشريّة أخطار جديدة، ولكنّها توفّر أيضًا فرصًا غير عاديّة. تحقيق التوازن بين الاثنين يعني السير بحذر. أن نمضي قدمًا بحذر يعني وضع الأساسات الّتي سنحتاج أن نبني عليها مزيدًا من التنظيم والقواعد في المستقبل. والآن، لقد حان الوقت لوضع بعض الأسس.
المصدر: عرب 48