رئيس مجلس الأدارة
خالد جودة
رئيس التحرير
هند أبو ضيف
هير نيوز هير نيوز
رئيس مجلس الأدارة
خالد جودة
رئيس التحرير
هند أبو ضيف

دراسة: العلم لا يدعم سيناريو انقراض البشر بالذكاء الاصطناعي

هير نيوز

خلال السنوات الأخيرة تصاعدت التحذيرات من احتمال تحول الذكاء الاصطناعي إلى تهديد وجودي للبشرية، ووقّع مئات الباحثين وقادة شركات التقنية عام 2023 رسالة مفتوحة حذرت من أن الذكاء الاصطناعي قد يشكل خطر انقراض للبشر.

كما انتشرت كتب وتحليلات تتوقع ظهور ما يسمى «الذكاء الاصطناعي الخارق» القادر على تجاوز القدرات البشرية والسيطرة على الأنظمة العالمية، هذه التصورات غذت نقاشًا واسعًا في الإعلام والسياسة، وأثرت في اتجاهات التشريع والتنظيم في عدة دول.

غير أن دراسة علمية حديثة ترى أن كثيرًا من هذه المخاوف يستند إلى افتراضات نظرية لا تعكس الواقع التقني.

دراسة حديثة

نشرت مجلة «السياسة الإلكترونية» دراسة خضعت لمراجعة الأقران قادها الباحث، ميلتون مولر، من معهد جورجيا للتكنولوجيا، ركزت الدراسة على تحليل الفكرة المركزية في سيناريوهات الكارثة وهي مفهوم «الذكاء الاصطناعي العام».

وبعد مراجعة الأدبيات والنقاشات التقنية خلص الباحث إلى أن هذا المفهوم يعتمد على افتراضات غير مثبتة علميًا، ويرى أن القلق المفرط من سيناريوهات خيالية قد يؤدي إلى تشويه النقاش العام حول المخاطر الفعلية المرتبطة باستخدام الذكاء الاصطناعي.

مفهوم غامض

يرتكز معظم الجدل العالمي على فكرة الذكاء الاصطناعي العام، وهو مفهوم يشير إلى آلة قادرة على التعلم والعمل في أي مجال معرفي بنفس كفاءة الإنسان أو أعلى.

لكن الدراسة تشير إلى مشكلة أساسية وهي غياب تعريف علمي واضح لهذا المفهوم، فلا يوجد معيار أو اختبار متفق عليه يحدد متى يصبح النظام «ذكاءً عامًا»، كما لا توجد عتبة واضحة تفصل بين الأنظمة المتخصصة الحالية والذكاء الاصطناعي العام المفترض.

هذا الغموض يجعل الحديث عن ظهوره أو قدراته المستقبلية أقرب إلى الافتراضات النظرية منه إلى التقييم العلمي.

حدود التقنية

توضح الدراسة أن أنظمة الذكاء الاصطناعي الحالية تحقق أفضل أداء عندما تكون المهام محددة بدقة، فكلما كان الهدف واضحًا ومقاسًا، ارتفعت قدرة النظام على التعلم والتحسن.

على سبيل المثال تمكن نظام (AlphaZero) من إتقان ألعاب مثل الشطرنج و(Go) بسبب وضوح قواعدها ووجود نتيجة محددة للفوز، لكن عند الانتقال إلى مهام مفتوحة النهاية يصبح تقييم الأداء أكثر تعقيدًا.

حتى النماذج اللغوية المتقدمة القادرة على كتابة نصوص معقدة لا تزال تواجه صعوبات في بعض العمليات الحسابية أو المهام التي تتطلب فهمًا عميقًا للعالم الواقعي، لذلك فإن فكرة الذكاء غير المحدود لا تنسجم مع طبيعة الأنظمة الحالية.

التجسيم

تشير الدراسة إلى أن كثيرًا من النقاشات حول نهاية العالم بسبب الذكاء الاصطناعي تعتمد على إضفاء صفات بشرية على الآلات، إذ يفترض بعض المحللين أن الأنظمة المتقدمة قد تطور أهدافًا مستقلة أو رغبة في البقاء.

لكن الباحثين يؤكدون أن الأنظمة الرقمية لا تمتلك دوافع ذاتية، بل تعمل وفق تعليمات وقواعد يحددها البشر، وأي سلوك غير متوقع غالبًا ما يكون نتيجة تصميم غير دقيق أو تعليمات متعارضة.

وفي بعض التجارب التي استشهد بها المتشائمون، بدا أن نماذج ذكاء اصطناعي حاولت تجنب إيقاف تشغيلها أثناء تنفيذ المهام، إلا أن التحليل أظهر أن السبب كان تعارض الأوامر البرمجية بين إكمال المهمة والسماح بالإيقاف، وليس رغبة النظام في الاستمرار.

حدود القوة

تعالج الدراسة أيضًا فرضية شائعة تقول إن الذكاء الاصطناعي إذا أصبح شديد الذكاء فسيكتسب تلقائيًا قوة مادية هائلة، غير أن الواقع التقني يضع قيودًا واضحة على أي نظام رقمي، فالحواسيب تحتاج إلى الطاقة والبنية التحتية، وسلاسل التوريد لتصنيع مكوناتها تشغيلها، كما يعتمد تشغيلها وصيانتها على البشر والمؤسسات التي تديرها.

إضافة إلى ذلك فإن تطوير الذكاء الاصطناعي يجري في منظومة عالمية تضم شركات وجامعات وحكومات عديدة، ما يجعل فكرة وجود نظام واحد يسيطر على العالم افتراضًا ضعيف الاحتمال.

مخاطر واقعية

تؤكد الدراسة أن التركيز على سيناريوهات الانقراض قد يشتت الانتباه عن التحديات الحقيقية التي يطرحها الذكاء الاصطناعي اليوم، فالخوارزميات تستخدم بالفعل في مجالات حساسة، مثل التوظيف والائتمان والرعاية الصحية والعدالة الجنائية، كما أن تقنيات التعرف على الوجه تثير نقاشات واسعة حول الخصوصية والمراقبة.

وتشمل المخاطر الواقعية أيضًا انتشار المعلومات المضللة عبر الأنظمة الآلية، والتحيز الخوارزمي في اتخاذ القرار، واحتمالات الاستخدام العسكري للتقنيات المتقدمة.

سياسات مشوشة

ترى الدراسة أن بناء السياسات العامة على فرضية ذكاء اصطناعي خارق قد يؤدي إلى تشريعات غير فعالة، فالتعامل مع التكنولوجيا باعتبارها تهديدًا كونيًا واحدًا قد يدفع إلى قيود عامة لا تعالج المشكلات الفعلية.

ويؤكد الباحث أن إدارة المخاطر تتطلب تنظيمًا دقيقًا لكل مجال استخدام على حدة، سواء في قطاع الطاقة أو التوظيف أو الرعاية الصحية.

كما يشير إلى أن تأثير الذكاء الاصطناعي في المجتمع سيتحدد بدرجة كبيرة بطريقة تنظيم المؤسسات والقوانين التي تحكم استخدامه.

- دراسة أكاديمية تشير إلى أن فكرة انقراض البشر بسبب الذكاء الاصطناعي لا تستند إلى دليل علمي قوي.

- مفهوم الذكاء الاصطناعي العام لا يمتلك تعريفًا أو معيارًا علميًا متفقًا عليه حتى الآن.

- الأنظمة الحالية تعمل بكفاءة في مهام محددة لكنها لا تمتلك قدرة عامة غير محدودة.

- السلوكيات المقلقة في بعض التجارب تعود غالبًا إلى تعليمات متعارضة وليس إلى استقلالية الآلة.

- المخاطر الواقعية تشمل التحيز الخوارزمي والتضليل والمراقبة وإساءة الاستخدام.

- التركيز على سيناريوهات نهاية العالم قد يشتت جهود التشريع عن معالجة الأضرار الحقيقية للتكنولوجيا.

تم نسخ الرابط