ترجع التطورات الهائلة والمتسارعة في مجال الذكاء الاصطناعي في آخر عقدين إلى انفتاح مجتمع الباحثين والشركات للمشاركة. ولم تقتصر المشاركة فقط على نشر الأبحاث، بل تعدته إلى نشر البرمجيات مفتوحة المصدر ومكتبات تطوير نماذج تعلم الآلة والبيانات هائلة الحجم، حتى النماذج المدربة تم فتح مصدرها. هذه المشاركة المفتوحة هي ما أجزم أنها أتاحت السرعة الهائلة في التطور التي نراها حالياً، بالإضافة إلى أنها أتاحت الفرصة للجميع، للشركات الناشئة مثل الشركات الضخمة، وللدول النامية مثل الدول المتقدمة، وللباحثين الذين لديهم دعم ولمن لم يحصل عليه. وهذا ما أطلق عليه البعض ديموقراطية الوصول (democratization) إلى الذكاء الاصطناعي.
لكن الجو بدأ يتعكر منذ فترة، وبدأت بوادر الإغلاق بحجج متفاوتة، أكثرها ترداداً الآن الخوف من ناحية الأمان ومن ناحية الأخلاقيات. ولن أتحدث هنا عن وجهات النظر حول الموضوعين، لأن كل منهما يحتاج لمساحة كبيرة ليس هذا مكانها، لكن أود مناقشة ما يحدث الآن على أكثر من صعيد وما يمكن أن يكون له من تبعات قد تمسنا، وماذا يمكننا فعله.
حقيقة، الموضوع كان هاجساً في خاطري لعدة سنوات منذ أن قرأت التقرير المنشور عام 2018م: The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. يناقش التقرير المخاطر الأمنية المحتملة من الاستخدام الضار للذكاء الاصطناعي، واقترح طرق لمنعها أو التخفيف منها. التقرير جيد ويناقش مخاطر الذكاء الاصطناعي من عدة جوانب، ولكن ما أثار مخاوفي ميله إلى دفع المشرعين للتفكير في هذه المخاطر، وكانت هذه أولى التوصيات. بل اقترح البحث عن “نموذج مختلف للانفتاح” (Exploring Different Openness Models)، ومن ضمنها المشاركة فقط مع الجهات التي تنطبق عليها مواصفات محددة، ودراسة نموذج “ترخيص وصول مركزي” (Central access licensing models). التقرير أُعد من قبل عدة جهات، من بينها OpenAI – يا للعجب! تجدر الإشارة أنه في العام الذي يليه 2019م أعلنت OpenAI عن النموذج GPT-2 وأحجمت عن نشر النموذج المفتوح والبيانات كما كانت عادتها زعماً بسبب خوفهم من مضار استخدامه، وقد سبب ذلك في حينه انزعاجاً وصدى غير طيب لدى مجتمع الذكاء الاصطناعي. ساهم أيضاً في التقرير معهد مستقبل الإنسانية (Future of Humanity Institute) وله دور كبير في إشاعة المخاوف من أخطار الذكاء الاصطناعي، ولا عجب فمدير المعهد Nick Bostrom هو فيلسوف صاحب نظرة تشاؤمية جداً عن مستقبل الذكاء الاصطناعي، وهذا المعهد له دور كبير في الدفع نحو تشريعات “أمان” الذكاء الاصطناعي.
هذا سبّب بعض الهواجس التي كانت تدور في خاطري منذ ذلك الحين، ولكن لا ترقى إلى مخاوف حقيقية. لكن في الأعوام القليلة الماضية بدأت تزداد أصوات المناداة بمراقبة نماذج الذكاء الاصناعي، وكان التركيز بداية على مخاوف التجاوز من ناحية الأخلاقيات، ثم زادت وتيرة النقاش الأمني بشدة بعد إطلاق نموذجي ChatGPT و GPT-4. وما كان مزعجاً دخول الحقوقيون (في الولايات المتحدة والاتحاد الأوروبي خصوصاً) في النقاش، ولمن لا يعرفهم فنقاشهم غالباً متشنج ولا يسمعون للطرف الآخر ويريدون إيصال رأيهم بالقوة وإسكات كل من يعارضهم، وقد يصل الأمر إلى التشهير بهم والضغط عليهم بشتى الطرق حتى أن بعضهم قد يفقد وظيفته سبباً لذلك. ومن أهم وسائل الحقوقيون السياسة والتشريعات، لهذا فعلاً كنت أراقب الحوارات الساخنة، وغالباً ما كانت في تويتر وريديت، وأتوقع أن تخرج تشريعات قد تضرنا. خصوصاً مع تزايد الرسائل والمطالبات التي يتم حشد كبار الباحثين والمشاهير لتأييدها والتوقيع عليها. وقد عُقدت العديد من الجلسات في الولايات المتحدة والاتحاد الأوروبي ونشرت تقارير لنقاش هذه المخاطر من شتى الجوانب. فيما يلي أربع أمور حدثت في هذه السنة قد يكون لها أثر على وضع الذكاء الاصطناعي في الفترة القادمة، وبعدها نقاش لما ورد فيها والأثر المتوقع منها. وهذه فقط أمثلة وليست للحصر.
رسالة مفتوحة لإيقاف تجارب الذكاء الاصطناعي الضخمة
في 22 مارس 2023 وجه معهد مستقبل الإنسانية (Future of Humanity Institute) -هل تذكرونه؟- رسالة مفتوحة لإيقاف تجارب الذكاء الاصطناعي الضخمة لمدة ستة أشهر (Pause Giant AI Experiments: An Open Letter). وقد دعى لأن يكون الوقف علني ويمكن التحقق منه، وإن لم يمكن العمل بذلك سريعاً فيجب على الحكومات أن تتدخل.
وقد وقّع عليها العديد من الأسماء المعروفة. وصاحب هذه الرسالة تشريعات مقترحة، من بينها فيما يتعلق بموضوعنا هنا:
- الإلزام بالتدقيق والمراجعة من طرف ثالث وإصدار شهادات لأنظمة الذكاء الاصطناعي (Mandate robust third-party auditing and certification for specific AI systems)
- تنظيم وصول المنظمات إلى القوة الحاسوبية (Regulate organizations’ access to computational power)، بحجة أن تنظيمها وحوكمتها أسهل من الأجزاء الأخرى للذكاء الاصطناعي. وأن الحصول على الحوسبة لتدريب النماذج الضخمة يجب أن يتم بعد “تقييم شامل للمخاطر”. وأنه من أجل تحقيق هذا التنظيم ينبغي على الحكومات مراقبة استخدام الحوسبة في مراكز البيانات وحوكمة رقائق الذكاء الاصطناعي وأي مكون أساسي للحوسبة فائقة الأداء.
إدارة مخاطر الذكاء الاصطناعي في عصر التقدم السريع
في ورقة قصيرة نشرت في 26 أكتوبر 2023م بعنوان “إدارة مخاطر الذكاء الاصطناعي في عصر التقدم السريع” (Managing AI Risks in an Era of Rapid Progress)، قدم عدة باحثين في الذكاء الاصطناعي، بعضهم من الأسماء المعروفة في المجال، مقترحات للحد من المخاطر التي يتخوفون منها. من ضمنها تشريعات وتوصيات، يهمنا منها:
- تخصيص ما لا يقل عن ثلث الميزانيات المرصودة لأبحاث وتطوير الذكاء الاصطناعي لضمان الأمان والاستعمال الأخلاقي
- يجب أن يطلب المنظمون من الجهات تسجيل النموذج
- مراقبة تطوير النماذج واستخدام الحواسيب الفائقة
تقييد حكومة الولايات المتحدة تصدير الرقائق المتقدمة
في 17 أكتوبر 2023م قيدت حكومة الولايات المتحدة تصدير الرقائق المتقدمة وتشمل المعالجات والمعالجات الرسومية إلى الصين وبلدان أخرى (بما في ذلك على سبيل المثال لا الحصر، المملكة العربية السعودية والإمارات العربية المتحدة وفيتنام، ولكن باستثناء إسرائيل). وتشمل الدوائر المتكاملة التي تتجاوز حدود أداء معينة (بما في ذلك، على سبيل المثال لا الحصر، A100 وA800 وH100 وH800 وL40 وL40S وRTX 4090). أي نظام يشتمل على واحدة أو أكثر من الدوائر المتكاملة المغطاة (بما في ذلك، على سبيل المثال لا الحصر، أنظمة NVIDIA DGX وHGX) يخضع أيضًا لمتطلبات التنظيم الجديدة. وقد يكون للتقيد تأثير يصل إلى توريد بطاقات الرسومات GeForce RTX 4090 الموجه للمستخدم العادي.
الأمر التنفيذي بشأن تطوير واستخدام الذكاء الاصطناعي بطريقة آمنة ومأمونة وجديرة بالثقة
في 30 أكتوبر 2023م أعلن البيت الأبيض عن “الأمر التنفيذي بشأن تطوير واستخدام الذكاء الاصطناعي بطريقة آمنة ومأمونة وجديرة بالثقة” (Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence). تضمن الأمر العديد من النقاط التي لا يتسع المجال لذكرها هنا، ويكفي الإشارة إلى بعض النقاط المهمة المتعلقة بموضوعنا هنا:
- ذكر أن الانشار السريع للذكاء الاصطناعي يدعو الولايات المتحدة إلى أن تقود الوضع حالياً من أجل “الأمن والاقتصاد والمجتمع“. كما ذكر سعي الولايات المتحدة لقيادة الجهود الدولية في التشريعات المتعلقة بالذكاء الاصطناعي.
- التخطيط لاختبارات وتنظيمات لأمان الذكاء الاصناعي قد يحتاج لجهد كبير وميزانيات ضخمة لإتمامها والالتزام بها
- تعريف مصطلح “النموذج الأساسي ثنائي الاستخدام” (dual-use foundation model) بأنه نموذج الذكاء الاصطناعي الذي يتم تدريبه على بيانات ضخمة؛ يستخدم بشكل عام الإشراف الذاتي (self-supervision)؛ يحتوي على ما لا يقل عن عشرات المليارات من المُعامِلات (parameters)؛ قابل للتطبيق عبر مجموعة واسعة من السياقات؛ ويظهر، أو يمكن تعديله بسهولة لإظهار مستويات عالية من الأداء في المهام التي تشكل خطرًا جسيمًا على الأمن أو الأمن الاقتصادي الوطني أو الصحة العامة الوطنية أو السلامة، أو أي مزيج من هذه الأمور. التعريف هذا مهم لأنه يشمل جميع النماذج الضخمة.
- في غضون 90 يومًا من تاريخ هذا الأمر، لضمان والتحقق من التوفر المستمر لذكاء اصطناعي آمن وموثوق وفعال وفقًا لقانون الإنتاج الدفاعي، بما في ذلك الدفاع الوطني وحماية البنية التحتية الحيوية، يجب على وزير التجارة أن يطلب ما يلي:
- يجب على الشركات التي تطور أو تظهر نية لتطوير نماذج أساسية محتملة ذات استخدام مزدوج تزويد الحكومة الفيدرالية، بشكل مستمر، بالمعلومات أو التقارير أو السجلات المتعلقة بما يلي: (أ) أي أنشطة مستمرة أو مخطط لها تتعلق بالتدريب أو التطوير أو إنتاج نماذج أساس ذات استخدام مزدوج، (ب) ملكية وحيازة الأوزان لأي نماذج أساس ذات استخدام مزدوج
- يجب على الشركات أو الأفراد أو المنظمات أو الكيانات الأخرى التي تستحوذ على مجموعة حوسبة واسعة النطاق أو تطورها أو تمتلكها الإبلاغ عن أي عملية استحواذ أو تطوير أو حيازة، بما في ذلك وجود هذه المجموعات الحوسبية وموقعها ومقدار إجمالي قوة الحوسبة المتاحة في كل كتلة.
- يجب على وزير التجارة، بالتشاور مع وزير الخارجية، ووزير الدفاع، ووزير الطاقة، ومدير الاستخبارات الوطنية، تحديد مجموعة الشروط الفنية للنماذج، ثم تحديثها حسب الحاجة على أساس منتظم. ومجموعات الحوسبة التي ستخضع لمتطلبات إعداد التقارير. وإلى أن يتم تحديد هذه الشروط الفنية، يجب أن يُطلب الامتثال لمتطلبات إعداد التقارير هذه فيما يتعلق بما يلي:
- أي نموذج تم تدريبه باستخدام كمية من قوة الحوسبة أكبر من 1026 عملية عدد صحيح أو فاصلة عائمة (integer or floating-point operations)
- أو أي مجموعة حوسبة تحتوي على مجموعة من الأجهزة الموجودة فعليًا في مركز بيانات واحد، ومتصلة من خلال شبكة مركز بيانات تزيد سرعتها عن 100 جيجابت/ثانية، ولها قدرة حوسبة قصوى نظرية تبلغ 1020 عددًا صحيحًا أو عمليات فاصلة عائمة لكل الثانية لتدريب الذكاء الاصطناعي.
- يجب خلال 90 يومًا من تاريخ هذا الأمر أن يتم:
- اقتراح اللوائح التي تتطلب من مقدمي المنصات كخدمة (IaaS) في الولايات المتحدة تقديم تقرير إلى وزير التجارة عندما يتعامل شخص أجنبي مع مقدم خدمات IaaS في الولايات المتحدة لتدريب نموذج ذكاء اصطناعي ضخم يتمتع بقدرات محتملة يمكن استخدامها في أنشطة ضارة عبر الإنترنت. يجب أن تتضمن هذه التقارير، على الأقل، هوية الشخص الأجنبي ووجود أي تدريب لنموذج ذكاء اصطناعي يلبي المعايير المنصوص عليها في هذا القسم، أو معايير أخرى يحددها الأمين في اللوائح، بالإضافة إلى أي معلومات إضافية تُطلب.
- تضمين متطلب في اللوائح المقترحة بأن موفري خدمات IaaS في الولايات المتحدة يمنعون أي بائع أجنبي لمنتج IaaS الخاص بهم في الولايات المتحدة من توفير تلك المنتجات ما لم يقدم هذا المورد الأجنبي إلى الولايات المتحدة تقريرًا إلى وزير التجارة، مع تفصيل كل حالة يتعامل فيها شخص أجنبي مع البائع الأجنبي لاستخدام منتج IaaS الأمريكي لإجراء تشغيل تدريبي موصوف في هذا القسم. يجب أن تتضمن هذه التقارير، على الأقل، المعلومات المحددة في القسم الفرعي من هذا القسم بالإضافة إلى أي معلومات إضافية تُطلب.
- تحديد مجموعة الشروط الفنية لنموذج الذكاء الاصطناعي الضخم لكي يتمتع بإمكانات محتملة يمكن استخدامها في الأنشطة الضارة عبر الإنترنت، ومراجعة هذا التحديد حسب الضرورة والمناسبة. وإلى أن يتخذ الأمين مثل هذا القرار، يجب اعتبار أن النموذج يتمتع بقدرات محتملة يمكن استخدامها في نشاط إلكتروني ضار إذا كان يتطلب كمية من قوة الحوسبة أكبر من 1026 عملية عدد صحيح أو فاصلة عائمة ويتم تدريبه على مجموعة حوسبة (cluster) تحتوي على مجموعة من الأجهزة الموجودة فعليًا في مركز بيانات واحد، ومتصلة من خلال شبكة مركز البيانات بسرعة أكثر من 100 جيجابت/ثانية، وتتمتع بقدرة حسابية قصوى نظرية تبلغ 1020 عددًا صحيحًا أو عمليات فاصلة عائمة في الثانية لتدريب الذكاء الاصطناعي.
- في غضون 180 يومًا من تاريخ هذا الأمر، يقترح وزير التجارة لوائح تتطلب من مقدمي خدمات IaaS في الولايات المتحدة التأكد من أن البائعين الأجانب لمنتجات IaaS في الولايات المتحدة يتحققون من هوية أي شخص أجنبي يحصل على حساب (حساب) IaaS من البائع الأجنبي.
- طلب المدخلات/الرأي بشأن نماذج الأساس ذات الاستخدام المزدوج مع أوزان النماذج المتوفرة على نطاق واسع. عندما تكون أوزان نموذج الأساس ثنائي الاستخدام متاحة على نطاق واسع (غالباً المفتوحة المصدر) -كما هو الحال عندما يتم نشرها علنًا على الإنترنت- فقد تكون هناك فوائد كبيرة للابتكار، ولكن أيضًا مخاطر أمنية كبيرة، مثل إزالة الضمانات الأمنية داخل النموذج. لمعالجة المخاطر والفوائد المحتملة لنماذج الأساس ذات الاستخدام المزدوج ذات الأوزان المتاحة على نطاق واسع، في غضون 270 يومًا من تاريخ هذا الأمر، يقوم وزير التجارة، من خلال مساعد وزير التجارة للاتصالات والمعلومات، وبالتشاور مع وزير الخارجية بطلب الرأي من الشركات والجهات الأكاديمية والحكومية وأصحاب المصلحة ثم تقديم تقرير إلى الرئيس حول الفوائد والمخاطر والآثار المحتملة لنماذج الأساس ذات الاستخدام المزدوج التي تتوفر لها أوزان النماذج على نطاق واسع، بالإضافة إلى التوصيات السياسية والتنظيمية المتعلقة بتلك النماذج.
نقاش لما سبق
بعد أن امتنعت OpenAI عن فتح مصدر نماذجها الضخمة بدءاً من GPT-2، ظهرت بعض الجهات التي حملت على عاتقها إيجاد بدائل مفتوحة المصدر، مثل GPT-J وGPT-NeoX من Eleuther AI، أو Bloom وهو مشروع شارك فيه أكثر من 1000 مساهم من الجهات البحثية والخاصة. وظهر مؤخراً عدة نماذج ضخمة مثل Llama و Falcon استفاد منها العديد في بناء نماذجهم الخاصة بهم. مثل هذه النماذج الضخمة مفتوحة المصدر هي الوقود للإبداع، وهي الأمل للشركات الناشئة والمتوسطة في منافسة الشركات العملاقة بمنتجات وخدمات قد تضاهيها أو تتفوق عليها.
قد يكون لاستخدام هذه النماذج المفتوحة أضرار مثل ما لها من منافع . من المهم أن أوضح أن النظر إلى الأضرار المحتملة شيء جيد وإجابي من ناحية المبدأ، سواء من الجانب الأمني أو الاجتماعي أو الأخلاقي. لكن بمعيار من؟ وبسلطة من؟ ولمصلحة من؟ هذا هو ما يثير تخوفي بشكل أساسي لتأثيره المباشر علينا (والمجتمعات المسلمة والعربية عموماً)، فثقافتنا وأخلاقنا مختلفة تماماً عن الأخلاق الغربية والشرقية، ومصالحنا قد تتفق أحياناً ولكن ليس دائماً. كما أن الجانب الأمني والأخلاقي دائماً هو ذريعة المنع والإغلاق كما شهدنا مراراً وتكراراً، وأخشى أن يطال كل الجوانب المتعلقة بالذكاء الاصطناعي.
كنت أفكر في نفسي، كيف يمكن إجبار هذه الجهات المختلفة بعدم المشاركة؟ أحد الأمور التي فكرت فيها هي عن طريق المنح البحثية (grants) لمراكز الأبحاث والشركات، بالاشتراط عليهم عدم نشر المخرجات. ولكن بالتأكيد ليست وسيلة كافية للتحكم بالجميع. الوسيلة الأمثل كما ذُكر هو بالتحكم في الوصول إلى القوة الحاسوبية (على الأقل حسب التقنية الحالية)، وأن يكون الحصول على الحوسبة لتدريب النماذج الضخمة بعد “تقييم شامل للمخاطر”، ومن الذي سيضع معايير التقييم الشامل هذه؟ سيضعها من لديه التحكم بالقوة الحوسبية، وسيكون هذا وفقاً لأهدافه الاقتصادية والسياسية أياً كانت. وعن طريق ذلك يمكن إجبار أي شخص أو جهة تستخدم هذه الموارد لتدريب نماذج الذكاء الاصطناعي بالإفصاح عن هذه النماذج والهدف منها (ويجب أن لا يعارض هذا الهدف أي توجه للقوة المتحكمة في الحوسبة). ويمكن كذلك الإجبار بالتدقيق والمراجعة من طرف ثالث وإصدار شهادات لأنظمة الذكاء الاصطناعي حسب ما تراه الجهة المسيطرة على الحوسبة.
من جهة أخرى ستحد هذه التنظيمات من المنافسة بشكل كبير جداً، فهي تصب في صالح الشركات العملاقة. لن تستطيع الشركات الناشئة أو المتوسطة بسهولة الالتزام بشروط الاختبارات التي قد تكون مكلفة أو تكاليف التدقيق والمراجعة وإصدار الشهادات لكل نموذج أو الالتزام بتقديم التقارير التفصيلية لكل عملية تدريب نموذج أو دفع المخالفات التي قد تنتج من ذلك أو عدم الوصول إلى نماذج ضخمة مفتوحة المصدر. كما ستقيد أو تعيق (بقصد أو بطريقة غير مباشرة) بعض هذه التنظيمات الشركات الأجنبية من الوصول إلى الحوسبة الفائقة لتدريب نماذج الذكاء الاصطناعي، وستضطر أن تفصح عن النماذج التي يجري تدريبها إذا استخدمت بنيتهم التحتية حتى وإن كانت أسراراً تجارية.
أخشى أن يمتد ذلك مستقبلاً إلى اعتبار تقنيات الذكاء الاصطناعي أحد التقنيات التي تمس الأمن القومي مثل التقنيات الدفاعية (أحد العلماء البارزين في المجال يشبه الذكاء الاصطناعي بالأسلحة النووية!)، فيكون حجة حتى لمنع تصدير التقنية أو تدريسها أو التدريب عليها. وذلك غير مستبعد للأسف.
أحد النقاشات الحامية بين المختصين في المجال هو أن التقييد يتجه لأن يطال حتى الجهات البحثية بتقييد الأبحاث المتعلقة بالذكاء الاصناعي، والمفترض أن يكون التقييد لتطبيقات الذكاء الاصطناعي. كمثال، التقييد للسيارات ذاتية القيادة يكون في قيادتها الفعلية داخل المدن، وليس للأبحاث التي تجرى عليها في المعامل بعيداً عن الناس. ولا تزال هناك معارضة شديدة لمنع التشريعات من أن تطال الأبحاث في الذكاء الاصطناعي. كذلك هناك قلق من تشريعات محتملة تتعلق بفتح مصادر النماذج للعموم كما ورد من ذكر عن إعداد دراسة حيال ذلك خلال 270 يوماً، وهذا قد يؤثر بشكل كبير على تطوير الذكاء الاصطناعي والابتكار والشركات الناشئة والمتوسطة.
ورد في ورقة “إدارة مخاطر الذكاء الاصطناعي في عصر التقدم السريع” التوصية بتخصيص ما لا يقل عن ثلث الميزانيات المرصودة لأبحاث وتطوير الذكاء الاصطناعي لضمان الأمان والاستعمال الأخلاقي، وهذا كثير جداً وقد يعيق من تطوير منتجات الذكاء الاصطناعي بشكل كبير. كما أن هناك تسائل عن من الذي سيتولى الوظائف التي ستنشأ لأخلاقيات وأمان الذكاء الاصطناعي؟ هل سيفهمون التقنية التي يتعاملون معها جيداً؟
ماذا نستطيع أن نفعل؟
قد تكون الصورة قاتمة ومحبطة، ولكن الأمل لا ينقطع، ودائماً هناك حل بإذن الله وإن طال الزمن. هنا سأناقش بعض الأفكار والخواطر التي تدور في ذهني، ولا يلزم أن تكون صحيحة بقدر ما آمل أن يكون أحدها أو بعضها نواة لأفكار ومبادرات أكثر نضجهاً وواقعية.
- صناعة المعالجات والمعالجات الرسومية معقد جداً، وقد يحتاج لعشرات السنين إذا بدأنا من الصفر. من المهم أن نكون واقعيين في الحلول المقترحة. أتمنى أن نكون من قمة الدول المصنعة للمعالجات والمعالجات الرسومية وأن نبدأ في ذلك قريباً، ولكن إلى ذلك الحين ما العمل؟ قد يكون بالتحالف مع الدول التي قطعت شوطاً لا بأس به، وعلى رأسها الصين، والاستثمار في بعض الشركات لديها، وقد يمكن إقامة مصانع لدينا. ولا يصعب تخيل تحالف بين دول BRICS وغيرها، فلديها كل المقومات من كوادر بشرية وموارد للمنافسة مع الوقت. ولا يلزم التخلي بالكامل عن منتجات الولايات المتحدة وغيرها، ولكن أن يكون لدينا ما يكفي من الاستقلالية التقنية لتجنب الضغط أو التحكم من هذه الناحية. وأود التنبيه أن هذه النقطة قد لا أكون دقيقاً فيها لعدم اختصاصي بأشباه الموصلات ولعدم الإحاطة بالكثير من الأمور السياسية والاقتصادية المتعلقة بسلاسل الإمداد لها.
- صناعة المعالجات بمعماريات ثورية جديدة، مثل المعالجات البصرية (optical processors) وغيرها. قد يكون الدخول في مجال جديد فرصة للريادة فيه. ولا يمنع الشراكة مع دول أخرى للوصول إلى ذلك.
- تطوير أساس التقنية، حالياً لا نزال مستخدمين للذكاء الاصطناعي، المكتبات البرمجية وأغلب أكواد تدريب النماذج والبيانات والنماذج المدربة نستخدمها من المتاح مفتوح المصدر على الانترنت. بتشبيه السيارة، ما نقوم به هو تجميع أجزاء السيارة وليس صنع المحرك. نحن نطور التطبيقات فقط. نحتاج لزيادة الكفاءات القادرة على “صنع” التقنية، بدلاً من الاقتصار على “استخدامها“. وقد يسهم في ذلك التدريب على صنع التقنيات العميقة والشراكة مع الدول الصديقة لنقل التقنية والمعرفة إلينا وتوطينها.
- تطوير تقنيات جديدة للذكاء الاصطناعي أو تحسين تقنيات حالية. لا يزال المجال كبير جداً، لا يقتصر الذكاء الاصطناعي على تعلم الآلة/التعلم العميق أو النماذج الضخمة. الذكاء الاصطناعي تحته فروع كثيرة غير تعلم الآلة، كالبحث والتخطيط والمنطق وتمثيل المعرفة والأنظمة الخبيرة وغيرها. أيضاً من المسارات البحثية النشطة حالياً في تعلم الآلة البحث عن طريقة للوصول إلى دقة النماذج الضخمة بنماذج أصغر وحوسبة أقل بكثير، وقد يقلل الوصول إلى ذلك من الحاجة إلى التسابق المحموم على الحوسبة الفائقة. لا نحتاج أن نجاري الجميع في سباق النماذج الضخمة، فقد نبرز ونكون القادة في مجال جديد كلياً أو تطوير شامل لمجال قائم أو الدمج بين أفكار من عدة مجالات. نحن نعلم أنه لا يزال أمامنا الكثير لاكتشافه في مجال الذكاء الاصطناعي، فلم لا نكون من المشاركين في السباق؟
- كل ما سبق يقودنا إلى هذه النقطة، لكي ينجح كل ذلك نحتاج لدعم ضخم للبحث والتطوير، والتخطيط لذلك بما يحقق التوجهات المرسومة. لا بد لصناعة أشباه الموصلات المتقدمة من إمكانيات بحثية في هذا المجال تجاري الدول المتقدمة، ولا بد من إمكانيات بحثية متقدمة للوصول إلى تقنيات ثورية للذكاء الاصطناعي بدلاً من استخدام التقنيات المكتشفة من الغير. والدعم البحثي لا يقتصر على المال فقط، بل يتعداه إلى التعاونات الدولية واستقطاب الكفاءات العالمية ووضع خطط لنقل التقنية والمعرفة وتوطينها وإنشاء المعامل، وغيرها من الأمور. البحث هو الأساس للمنافسة.
ما سبق كان خواطر احتبستها في نفسي لفترة وآن لها أن تخرج، آمل أن أكون وفقت في إيصال الصورة للوضع الحالي، وقد تكون بعض الأفكار التي طرحتها نواة لنقاشات مستقبلية مثرية. وأرحب بأي نقاش أو إضافة في التعليقات.