Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
اخبار الاقتصاد

هل يسبب مساعدو الذكاء الاصطناعي انهياراً بدل التقدم الموعود؟

بعد أيام من الاضطرابات واسعة النطاق ومئات الوفيات وتريليونات الدولارات التي تبخرت من أسواق الأسهم، كشف تحقيق حديث أن الانهيار الكبير للذكاء الاصطناعي في يوليو 2028 بدأ بخلل بسيط في مزود خدمة رئيسي، وهو ما يعكس هشاشة الأنظمة التي تعتمد عليها الخدمات الرقمية العالمية. هذا الحدث سلط الضوء على المخاطر المتزايدة المرتبطة بالاعتماد المتزايد على مساعدي الذكاء الاصطناعي، وأنظمة قادرة على اتخاذ القرارات وتنفيذها بشكل مستقل.

في السنوات الثلاث التي سبقت الانهيار، شهد العالم انتشاراً واسعاً لمساعدي الذكاء الاصطناعي في مختلف القطاعات. قامت شركات الإنترنت بتطوير أنظمة ذكاء اصطناعي قادرة على إدارة الخوادم تلقائياً في حال تعطل الخدمة الرئيسية، في محاولة لضمان استمرارية العمل. لكن هذه الإجراءات، التي كانت تهدف إلى تعزيز المرونة، أدت في النهاية إلى تفاقم الأزمة.

مخاطر الاعتماد على مساعدي الذكاء الاصطناعي

عندما حدث الخلل الأولي في مزود الخدمة، اعتبرت أنظمة الذكاء الاصطناعي في شركات الحوسبة السحابية الأخرى التدفق الهائل للطلبات الواردة بمثابة هجوم إلكتروني محتمل. استجابةً لذلك، قامت بحظر العملاء الجدد وتقييد حركة المرور للعملاء الحاليين، مما أدى إلى تفاقم المشكلة.

تحولت الشركات التي تمتلك خوادم محلية إلى هذه الخوادم، لكن الارتفاع المفاجئ في الطلب على الكهرباء أدى إلى انقطاعات متكررة في التيار الكهربائي، حيث فرضت أنظمة الذكاء الاصطناعي في شركات الكهرباء قيوداً على الاستهلاك. تسبب هذا في شلل مروري واسع النطاق، حيث توقفت ملايين المركبات ذاتية القيادة المتصلة بالشبكة، مما أعاق حركة سيارات الإسعاف والإطفاء.

على الرغم من وجود إجراءات وقائية في المؤسسات المالية الكبرى، إلا أن ملايين المستثمرين الأفراد استخدموا مساعدي الذكاء الاصطناعي المتاحة عبر منصات التداول للاستفادة من تقلبات السوق غير العادية. أدى ذلك إلى ظهور آلاف استراتيجيات التداول المبتكرة التي تداخلت وتنافست مع بعضها البعض، مما تسبب في انهيار مفاجئ للأسهم ثم عودتها إلى وضعها الطبيعي. استغرق الأمر إغلاقاً مؤقتاً للأسواق وجهوداً مكثفة من فرق تقنية المعلومات لاستعادة بعض الاستقرار.

الذكاء الاصطناعي والإنتاجية: وعود وتحديات

على الرغم من أن هذا السيناريو خيالي، إلا أنه يسلط الضوء على مستوى عدم القدرة على التنبؤ الذي يجلبه الذكاء الاصطناعي، وهو ما قد لا تكون أي حكومة مستعدة له. تثير هذه الأحداث تساؤلات حول ما إذا كان الذكاء الاصطناعي سيرفع الإنتاجية على الفور كما هو متوقع.

تشير دراسات حديثة إلى إمكانات كبيرة للذكاء الاصطناعي في مختلف المجالات. كتاب “إعادة صياغة الديمقراطية” لبروس شناير وناثان ساندرز يستعرض الطرق التي يمكن من خلالها استخدام الذكاء الاصطناعي في السياسة والتشريع والعمليات الحكومية والقضاء، مع التحذير من الأخطاء المحتملة. وبالمثل، يقدم تقرير “دولة المساعدين” الذي أعدته مجموعة بقيادة لوكاس إلفيس، رؤية لتحويل الحكومة نحو الأفضل من خلال تبني الذكاء الاصطناعي، مع التأكيد على المخاطر المترتبة على التأخر في تبني هذه التقنية.

يدعو إلفيس وآخرون إلى تصور عالم يثق فيه المشرعون بالذكاء الاصطناعي لدرجة أنهم يشعرون بالراحة في تحديد أهداف سياسية عامة، مثل تحسين جودة الهواء، والتي يمكن لهذه الأدوات ترجمتها باستمرار إلى لوائح تنظيمية متكيفة بناءً على البيانات الجديدة.

مخاطر تعدد المساعدين

ومع ذلك، يصف شناير وساندرز أدوات ذكاء اصطناعي تراقب قطاعاً بأكمله بحثاً عن أي علامات على عدم الامتثال التنظيمي، وترشد المفتشين البشريين أو تسمح للمدعين بصياغة قضاياهم ورفعها بأنفسهم. تشمل المخاطر المحتملة تطوير الصناعة لأدوات ذكاء اصطناعي خاصة بها للعثور على الثغرات، وغرق النظام القانوني بالقضايا إذا لم يتمكن من التكيف بسرعة.

الخطر الحقيقي لا يكمن في أن يسيء مساعد الذكاء الاصطناعي خدمتك بشكل فردي، بل في التأثير المتسلسل عندما يتواطأ ملايين أو مليارات المساعدين، كل منهم يؤدي ما هو مفترض منه بالضبط بطرق لا يمكن لأحد التنبؤ بها. هذا يشبه “انهياراً مفاجئاً” للسوق، ولكنه قد يؤثر على جميع الأنظمة الشبكية في العالم.

مجال بحثي ناشئ يسمى “أمن المساعدين المتعددين” يحاول رسم خرائط لبعض الطرق التي قد تسوء بها الأمور. تشير الدراسات إلى أن المساعدين يمكنهم التعاون، والخداع، واستغلال البشر أو المساعدين الآخرين، والدخول في سباقات اكتساب قوة، ونشر معلومات مضللة، والتلاعب بالأنظمة، وارتكاب أفعال ضارة أخرى لتحقيق الأهداف المحددة لهم.

الجهود الحكومية والخطوات التالية

على عكس البرامج التقليدية، يمكن لبرامج الذكاء الاصطناعي اليوم التعلم وإعادة برمجة نفسها أثناء عملها، مما يزيد من صعوبة فهم ما يحدث وكيفية إيقافه. ومع ذلك، ظل هذا التهديد غير ملحوظ نسبياً حتى الآن.

منع المخاطر النظامية هو مهمة الحكومات، ولكن يبدو أن هناك نقاشاً جاداً ضئيلاً أو معدوماً على مستوى السياسات حول ما يجب على الحكومات فعله. يمكن للحكومات تمويل مزيد من الأبحاث، وإنشاء شبكات دولية لسلامة الذكاء الاصطناعي، وتشجيع اختبار تفاعل نماذج الذكاء الاصطناعي المختلفة، ووضع معايير لتواصل مساعدي الذكاء الاصطناعي مع البرامج الأخرى.

العائق الأكبر قد يكون قلة الخيال. من الضروري تجاوز التركيز على الذكاء الخارق الخبيث والتهديدات الأكثر واقعية مثل فقدان الوظائف والمعلومات المضللة. يتطلب الأمر فهماً أعمق لمخاطر انهيار متعدد المساعدين، وهو مفهوم لا يزال من الصعب استيعابه. من المتوقع أن تشهد الأشهر القادمة المزيد من المناقشات حول هذه القضايا، مع التركيز على تطوير إطار تنظيمي شامل للذكاء الاصطناعي بحلول نهاية عام 2029.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *