كنت أول وزير للذكاء الاصطناعي في التاريخ

Omar Sultan Al Olama, United Arab Emirates' minister for artificial intelligence, during a panel session on the opening day of the World Economic Forum (WEF) in Davos, Switzerland, on Tuesday, Jan. 16, 2024. The annual Davos gathering of political leaders, top executives and celebrities runs from January 15 to 19. Stefan Wermuth-Bloomberg/Getty Images

“يثبت لي وزير الذكاء الاصطناعي الذي هو في سن ابني، وتم تعيينه لتنظيم تقنية افتراضية، أن حكومتك لديها الكثير من الوقت والموارد بين يديها.” كانت هذه كلمات مسؤول حكومي كبير خلال اجتماع ثنائي في عام 2017، بعد فترة وجيزة من تعييني كأول وزير للذكاء الاصطناعي في العالم. عند سماع هذه الملاحظة، أتذكر بوضوح الشعور بألم من السخط من خلال مساواتهم بين الشباب وعدم الكفاءة، ولكن أكثر من ذلك من خلال تجاهلهم الواضح وتهميشهم للذكاء الاصطناعي.

بعد ست سنوات من دوري في قيادة استراتيجية دولة الإمارات العربية المتحدة لتصبح الدولة الأكثر جاهزية للذكاء الاصطناعي، كان العام الماضي سباقًا مثيرًا لتطورات الذكاء الاصطناعي غير المسبوقة. من ChatGPT إلى Midjourney إلى HyenaDNA. لا يمكن إنكار الآن أن الذكاء الاصطناعي لم يعد تقنية افتراضية، ولكنه يتطلب المزيد من الوقت والموارد الحكومية في جميع أنحاء العالم.

أرى تشابهًا بين هذه الإنجازات العظيمة والتقدم الذي شهدته البشرية في مجالات مثل التنقل. فكر في التطور من الخيول إلى الطائرات في غضون بضعة عقود فقط، حيث لا يمكن للسفر على ظهور الخيل اليوم ببساطة التنافس مع طائرة بسرعة 900 كم/ساعة، واستنتج من هذا المثال إلى أين سيأخذنا تطور حساب الذكاء الاصطناعي. نحن نركب الخيول اليوم. من آلة باسكال الحاسبة إلى مستقبل الذكاء الاصطناعي، سوف يتفوق العقل البشري من حيث السرعة والتعقيد. تخيل، إذا صح التعبير، “مصباح علاء الدين” الحقيقي للتكنولوجيا. تكتب أمر معين في الجهاز أو النظام لتنفيذ وظيفة معينة أو لتحقيق نتيجة معينة. يشبه هذا الأمر بأنك تطلب رغبة أو أمنية من الجني الأسطوري، فبمجرد كتابتك لهذا الأمر، يقوم الجهاز كأنه جني سحري بتحقيق هذه الأمنية في شكل عملية أو نتيجة رقمية. هذا هو المستقبل المثير الذي سنعيشه.

ومع ذلك، في ظل خطر دق ناقوس الخطر، هناك احتمال حدوث ضرر هائل. على مر التاريخ، شهدنا أحداثًا كارثية تحفز الحكومات على تنظيم التكنولوجيا: أدت كارثة تشيرنوبيل النووية في عام 1986 إلى مراجعة إرشادات السلامة للوكالة الدولية للطاقة الذرية . أدت كارثة مطار تينيريفي في عام 1977 حيث اصطدمت طائرتان من طراز بوينج 747 إلى صياغة موحدة في مراقبة الحركة الجوية. يمكن أن يؤدي انحراف “جني علاء الدين” إلى كارثة على نطاق لم نره من قبل. يمكن أن يشمل ذلك كل شيء من شلل البنية التحتية الحيوية من قبل الذكاء الاصطناعي المحتمل، إلى انهيار الثقة في المعلومات بسبب انتشار التزييف الذي يمكن تصديقه عن طريق الروبوتات، إلى التهديدات السيبرانية التي تؤدي إلى خسائر كبيرة في الأرواح البشرية. يتجاوز التأثير بكثير عمليات المطار أو الحدود الجغرافية للمدينة. ببساطة، لا يمكننا الانتظار لكارثة الذكاء الاصطناعي لتنظيمها.

في مواجهة هذا التأثير السلبي المحتمل، الذي تسارع بسبب التطوير المستمر للذكاء الاصطناعي، من الواضح أن النماذج التقليدية للحوكمة والتنظيم، التي تستغرق سنوات لصياغتها، غير مجهزة بشكل جيد. وهذا يأتي من شخص قضى ثلث حياته في تنظيم التكنولوجيا الناشئة في دولة الإمارات العربية المتحدة. إن قانون تنظيم الذكاء الاصطناعي الذي لا يدخل حيز التنفيذ إلا بعد سنوات ليس معيارًا لخفة الحركة ولا الفعالية. علاوة على ذلك، فإن دولة واحدة في نظامنا العالمي الحالي، ملزمة بالحدود والبيروقراطية، غير قادرة ببساطة على التعامل مع قوة عالمية وسريعة التقدم مثل الذكاء الاصطناعي.

وهذا يتطلب إعادة تصور أساسية للحوكمة، وهي رشيقة في عمليتها ومتعددة الأطراف في تنفيذها. يجب أن نتبنى نهج الرواد مثل إيلون ماسك، الذي ينبهنا في الوقت نفسه إلى مخاطر الذكاء الاصطناعي غير المنظم مع استخدامه لدفع حدود البشرية بقوة إلى الأمام. يجب علينا أيضًا أن نتعامل مع هذا الخط، ونتعامل مع هذه التنبيهات على أنها درابزين مرن يوجه تطور الذكاء الاصطناعي بدلاً من إعاقته. يتطلب القيام بذلك تبديد خطر الجهل حول الذكاء الاصطناعي في الحكومة.

إلى جانب توسيع آفاق الحكومة، يجب أن نتبنى نهجًا عقلانيًا وبسيطًا ومدروسًا تجاه تنظيم الذكاء الاصطناعي، نهجًا لا يخنق الابتكار أو يمنع التبني. لنفترض أن الذكاء الاصطناعي يواجه مريضين في حالة حرجة، لكن الموارد تسمح بمعالجة مريض واحد فقط. من يجب أن يعطي الذكاء الاصطناعي الأولوية ؟ لقد ولت أيام وثائق سياسة المتاهة المكونة من ألف صفحة والتي تحدد معيارًا لا يمكن تحقيقه للامتثال. يجب أن يركز تركيزنا على تبني مخطط، يذكرنا بالبساطة الموجودة في “قوانين الروبوتات الثلاثة” الشهيرة لإسحاق أسيموف. يمنع القانون الأول الذكاء الاصطناعي من إيذاء البشر، أو من خلال التقاعس عن العمل، يسمح بإيذاء البشر. لذلك، فإن هذا القانون من شأنه أن يؤجل لغز المريضين المصابين بأمراض خطيرة إلى إنسان، والذي سيعتمد على إجراءاته الأخلاقية وحكمه البشري لاتخاذ القرار.

قد تكون هذه بديهيات عالمية لا يزعزعها تطور الذكاء الاصطناعي لأن صلاحيتها ليست مسألة إثبات علمي، بل هي سمة مميزة لإنسانيتنا المشتركة عند التنقل في مشكلة عربة الذكاء الاصطناعي التالية. سيذكروننا، والأجيال القادمة، بأن الذكاء الاصطناعي يجب أن يكون دائمًا في خدمة القيم الإنسانية، وليس العكس.

أنا أقف إلى جانب أمة نمت من الترابط العالمي والتعاون الدولي. أحث نظرائي في جميع أنحاء العالم على عقد وصياغة إطار توافقي للقوانين الأساسية العالمية للذكاء الاصطناعي. سيوفر هذا الإطار السقالات التي نبتكر منها مجموعة متنوعة من التشريعات من الملكية الفكرية إلى البصمة الكربونية الحسابية. قبل كل شيء، أؤمن إيمانًا راسخًا بقدرتنا الجماعية على إعادة تصور نهج جديد لحوكمة الذكاء الاصطناعي، نهج رشيق ومتعدد الأطراف والأهم من ذلك، نهج الآن.

بقلم عمر العلماء

وزير الدولة للذكاء الاصطناعي في دولة الإمارات العربية المتحدة

المصدر: https://time.com/6564430/ai-minister-uae/

Leave a Reply

Your email address will not be published.