طوفان من الأسئلة اجتاحت الإنترنت ووسائل التواصل الاجتماعي عن ChatGPT وأثره، خصوصاً مخاطره على نواحي الحياة والبشرية بأسرها. وقد يتعجب المتابع لمجال الذكاء الاصطناعي، ما السبب في هذا الزخم الهائل من الهواجس بالرغم من استخدامنا لكثير من تطبيقات الذكاء الاصطناعي في حياتنا اليومية؟ محركات البحث والتعرف على الوجوه في الكاميرات وتصنيف الصور آلياً وفلاتر الكاميرات مثل سنابشات والتعرف على الكلام المنطوق وتحويله إلى نص والترجمة الآلية وغيرها كلها تطبيقات للذكاء الاصطناعي نستخدمها يومياً في جوالاتنا التي لا تفارق أيدينا.

أعتقد أن السر يكمن في عدة عوامل اجتمعت سوياً في هذا النموذج:

  • ارتباطه باللغة التي تعد من الخصائص الأصيلة للبشر كونه نموذج لغوي توليدي. حتى الحيوانات لا تستطيع التحدث بلغتنا، لهذا إذا رأينا جهازاً يجيب علينا بلغتنا نربط بشكل تلقائي وغير واعٍ بينه وبينه الخصائص البشرية مما يثير التعجب والإثارة.
  • إتاحة التجربة المباشِرة لنماذج تعلم الآلة للجميع. صحيح أن بعض التقنيات التي نستخدمها تتضمن مكونات ذكاء اصطناعي، لكن كثيراً من المستخدمين لا يفطنون لذلك ويعدونها أحد الخصائص للتطبيق بغض النظر عن طبيعتها. لكن هذا النموذج أُتيح للجميع وقُدم على أنه نموذج متقدم للذكاء الاصطناعي، فالمستخدم أثناء تجربته له واضعٌ في ذهنه أنه يتعامل مع برنامج ذكاء اصطناعي، وهذا يجر جميع التداعيات والارتباطات المختزنة في عقله من الروايات والأفلام والكتب والتوقعات عن المجال، صحيحها وسقيمها. فرقٌ بين أن تقرأ عن مخرجات الذكاء الاصناعي وأن تجربه بيديك!
  • أنه مجاني وسهل الاستخدام ومفيد للحياة اليومية، ولا يوجد أي حاجز لتعلمه والاستفادة منه.

في الجزء الأول شرحت الفكرة الأساسية للنموذج ChatGPT والتقنيات التي قام عليها، وأتمنى أن أكون قد وُفقت لشرحه بطريقة سهلة وواضحة. في هذا الجزء سأتطرق إلى بعض المواضيع والأسئلة عنه، وسأطرح وجهة نظري حيالها. وقبل أن أخوض في ذلك لي عدة ملاحظات:

  • كل النقاش سيكون عن النماذج اللغوية الضخمة حسب ما شرحته في الجزء الأول، وليس المقام هنا الحديث عن مجال الذكاء الاصطناعي بأسره. كما أن العديد من المواضيع التي سأناقشها غير مختصة في النموذج ChatGPT فقط، ولكن النماذج اللغوية الضخمة عموماً.
  • هذه بعض المواضيع والأسئلة المختارة، قد لا أكون غطيت كل شيء ولكن أتمنى أن أُسهم بتوضيح ما اخترته.
  • بعض المواضيع تحتاج عدة مقالات، بل كتب ومجلدات، لهذا آثرت الاختصار مع محاولة التوضيح قدر الإمكان.
  • لماذا يُطلب من المختص في مجال ما الحديث عن تبعاته وتداعياته، حتى وإن كانت ترتبط بمجالات أخرى؟ هل يجب أن يتحدث المختص بالذكاء الاصطناعي عن مستقبل الوظائف؟ أو استخدامه من قبل الطلاب للغش؟ إذا كانت هذه الحال أفلا نطلب من المزارع أن يحدثنا عن القيمة الغذائية للباذنجان وعن الحساسية التي قد يسببها للبعض؟ أو تأثيره على الناتج المحلي الإجمالي أو الأمن الغذائي؟ ورغم ذلك سأناقش بعض المواضيع ليس بصفتي مختصاً في الذكاء الاصطناعي، ولكن من رأي شخصي نابع عن نقاشات وقراءات متعددة.

بعد أن وضعت ذلك في بالك، لنبدأ على بركة الله.

فائدة هذه النماذج

لم تأتِ الضجة الإعلامية من فراغ، فالنموذج ChatGPT له استخدامات مفيدة جداً لنطاق واسع من المجالات، سأشرح الطرق المحتملة لاستخدام النموذج حتى تتصور كيف يمكنك الاستفادة منه. ChatGPT هو نموذج لغوي توليدي، وهذا يعني أن غالب حالات استخدامه تنبع من طبيعته هذه وهي كثيرة ومتنوعة. إذا كنت قد قرأت الجزء الأول فقد تَذكر أن OpenAI استعانوا بأكثر الحالات استخداماً لنماذجهم المنشورة لتطوير InstructGPT، وهي تغطي غالب استخدامات ChatGPT الحالية، لذا سأذكرها هنا مع شرح بسيط لكل منها:

  • التوليد (Generation): وذلك من خلال إخراج نص (أو كود برمجي) حسب الأمر المرسل. وتتنوع مهام التوليد، فقد تكون توليد الأكواد وشرحها أو توليد الأشعار والنصوص الأدبية أو كتابة بريد الكتروني أو كتابة محتوى إعلامي أو تسويقي أو غيرها.
  • الأسئلة والأجوبة المفتوحة (Open QA): وتكون الأسئلة ذات نطاق عام وغير محصورة في مجال محدد.
  • العصف الذهني (Brainstorming): بتوليد أفكار حول الموضوع المطلوب في الأمر المرسل.
  • المحادثة (Chat): عن طريق الأسئلة والأجوبة بين المستخدم والنموذج، بغض النظر عن الموضوع.
  • إعادة الكتابة (Rewrite): وذلك بإعادة كتابة جمل أو فقرات بأسلوب مغاير للنص الأساسي، وقد يتبع تعليمات مخصصة من المستخدم أثناء إعادة الكتابة كالأسلوب، مثل الكتابة بأسلوب مؤلف مشهور أو بأسلوب يناسب طفل في السابعة من عمره. ويدخل من ضمنه الترجمة بإعادة كتابة نص من لغة إلى أخرى.
  • التلخيص (Summarization): تلخيص المحتوى الطويل بشكل أقصر أو استخراج أهم النقاط من النص.
  • التصنيف (Classification): تصنيف المحتوى النصي إلى أصناف محددة، كالموضوع: محتوى طبي أو رياضي أو اقتصادي، أو المشاعر في تغريدات أو مراجعة منتج.
  • الأسئلة والأجوبة المغلقة (Closed QA): وتكون الأسئلة عن موضوع محدد أو من ضمن خيارات محددة في الأمر.
  • الاستخراج (Extract): ويكون باستخراج أشياء محددة من نص، مثل أسماء الأماكن أو الأشخاص أو المواد الدراسية.

وغيرها من الاستخدامات التي يطول المقام بذكرها. وتكون طريقة العمل بإرسال الأمر إلى النموذج الذي يعالجه ثم يُولّد المخرج حسب طبيعة المهمة في الأمر.

OpenAI

أُسِّست OpenAI في سان فرانسيسكو، الولايات المتحدة الأمريكية، عام 2015 من قِبل مجموعة من المؤسسين ضمنهم الرئيس التنفيذي الحالي سام ألتمان وإلون مسك الذي خرج من مجلس إدارتها عام 2018. وهي معمل بحثي مهتم بأبحاث الذكاء الاصطناعي المتقدمة، وتحديداً الذكاء الاصطناعي العام. رسالتها من الموقع:

تتمثل مهمة OpenAI في ضمان أن الذكاء الاصطناعي العام -والذي نعني به الأنظمة المتقدمة ذاتية التحكم التي تتفوق على البشر في معظم الأعمال ذات القيمة الاقتصادية- تعود بالفائدة على البشرية جمعاء.

سنحاول بناء الذكاء الاصطناعي العام الآمن والمفيد بشكل مباشر، ولكننا سننظر أيضًا في أن مهمتنا قد تحققت إذا كان عملنا يساعد الآخرين على تحقيق هذه النتيجة.“.

في بدايتها كانت OpenAI منظمة غير ربحية، وكانت قد أطلقت عدة منتجات مفتوحة المصدر لدفع عجلة التقدم في مجال الذكاء الاصطناعي، من ضمنها Gym و Universe. ولكن بدايةً من النموذج GPT-2 عام 2019 انتحت إغلاق هذه النماذج وعدم إتاحتها مفتوحة المصدر، لكن فقط عن طريق واجهة تطبيقات برمجية (API) تستطيع أن تراقبها وتتحكم فيها. وحصل ذلك مع بقية النماذج التي بعدها، مثل GPT-3 و DALL-E-2 و ChatGPT. وبنفس العام أُنشأت شركة OpenAI LP بنموذج مزيج بين الربحي وغير الربحي تحت الشركة القابضة OpenAI Inc بحيث لا تتجاوز أرباحها 100 ضعف أي استثمار.

نموذج أم نظام؟

أحد الأسئلة التي لا نستطيع أن نجيب عليها بسبب إغلاق البرنامج هو هل ChatGPT عبارة عن نموذج لغوي ضخم فقط؟ أو نظام متكامل؟ وهناك فرق بين الاثنين.

نماذج تعلم الآلة في العادة لها مهام محددة تكون عن طريق استقبال مُدخلات وإخراج مُخرجات، فقد تكون:

  • مُدخل واحد ومُخرج واحد مثل نموذج توليدي يستقبل الأمر ويخرج النص المُولّد
  • مُدخل واحد وعدة مُخرجات مثل نموذج يستقبل صورة ويتعرف على الأشياء (objects) بداخلها
  • عدة مُدخلات ومُخرج واحد مثل توقع أسعار المنازل من عدة مُدخلات ويكون المُخرج سعر المنزل
  • عدة مُدخلات وعدة مُخرجات مثل أنظمة التوصية الآلية التي تأخذ تفضيلات المستخدمين وتُخرج التوصيات بناءً عليها

فهذا النموذج قد يكون مستقلاً بذاته أو ضمن نظام أكبر، ونعني في سياق النماذج اللغوية هنا الأنظمة البرمجية. والنظام قد يشتمل على أشياء تغطي جوانب متعددة كقواعد البيانات والأمان وصلاحيات الوصول وواجهات المستخدم وترتيب وتنسيق المخرجات مثل الجداول والأكواد البرمجية وغيرها، وقد يحتوي على عدة نماذج ذكاء اصطناعي.

في اعتقادي أن النموذج ChatGPT يعمل داخل نظام متكامل لا نعرف تفاصيله على وجه التحديد، ولكن من خلال شرحهم للنموذج نستشف أن هناك واجهة برمجية لمراقبة و ترشيح المحتوى. وقد توجد أو يجري العمل على مكونات أخرى لوظائف معينة كالتحقق من صحة المخرجات والحقائق. وقد يكون هناك عدة نماذج متخصصة في مجالات محددة وطريقة لاختيار النموذج الأفضل لكل أمر، كنموذج متخصص في الإجابة على الأسئلة البرمجية.

والنظام قد يحتاج لتدخل بشري في بعض أجزاءه. جدير بالذكر أن هناك جيشاً من البشر يعملون لتجهيز البيانات لتدريب نماذج OpenAI أو تنقيح وترشيح مخرجاتها. بالرغم أنها لم تفصح صراحة عن ذلك، إلا أنه توجد عدة دلائل على ذلك، فحسب التحقيق الذي أجرته مجلة تايم فقد استعانت OpenAI من خلال شركة وسيطة بعمالة من كينيا برواتب زهيدة أقل من 2$ بالساعة من أجل التحقق من المحتوى الضار للمساعدة في بناء آلية أمان تعمل بالذكاء الاصطناعي. وواضح من السياق أن هذه المجموعة غير المجموعة التي ذُكرت في الورقة البحثية، فلم تتم الإشارة إلى أي جنسية أفريقية حينها. وهذا يثير التساؤل عن كمية البيانات التي تُجهّز يدوياً للتدريب، وقد أثير هذا الموضوع بعد أن أعلن أحد المبرمجين رفضه لوظيفة لدى OpenAI طبيعتها أن يكون مُدرباً لنماذج الشركة من خلال كتابة الأكواد بطريقة معينة ثم شرحها بالتفصيل، الطريقة التي نراها في مخرجات النموذج. وهنا خبر عن توظيفهم لقرابة الألف لمهام تتعلق بتجهيز البيانات، 40% منهم مبرمجين لتجهيز بيانات تدريب للمهام البرمجية.

هل توجد نماذج لغوية ضخمة لجهات غير OpenAI؟

قد يعتقد البعض مع كثرة الأخبار عن نماذج OpenAI مثل GPT-3 و ChatGPT أنها الجهة الوحيدة التي لديها نماذج بهذه الضخامة والأداء. لكن توجد العديد من النماذج المشابهة أو التي تتفوق على أدائها، سأذكر بعضها هنا للمثال لا الحصر:

GLaM من أبحاث جووجل (2021): عبارة عن نموذج “خليط من الخبراء” (Mixture of Experts)، ويعني أنه يتكون من مجموعة من النماذج الفرعية المتخصصة. ويُعد من أكبر النماذج الحالية لأنه يتكون من 1.2 ترليون مُعامل عبر 64 نموذج فرعي خبير. بالرغم من ضخامة النموذج إلا أنه لا يُستخدم بشكل كامل وقت الاستدلال، بل فقط 97 مليار مُعامل تمثل نموذجين خبيرين يُختاران بشكل آلي حسب طبيعة البيانات المُدخلة.

Gopher من DeepMind (2021): دُربت سلسلة من نماذج اللغة متعددة المهام تتراوح أحجامها من 44 مليون مُعامل إلى 280 مليار.

Megatron-Turing NLG – مايكروسوفت وإنفيديا (2021): دُرب نموذج ميجاترون تورينج لتوليد اللغة الطبيعية بالتعاون بين شركتي مايكروسوفت وإنفيديا لشبكة عصبية من معمارية المحولات تتألف من 530 مليار مُعامل.

Chinchilla من DeepMind (2021): نموذج آخر من إنتاج DeepMind والهدف تطوير نموذج بحوسبة أكثر كفاءة، وقد دُرب النموذج المُكون من 70 مليار مُعامل بنفس ميزانية تدريب النموذج Gopher (المكون من 280 مليار مُعامل) أعلاه وبأربعة أضعاف البيانات، وتَفوق عليه في عدد من الاختبارات.

PaLM من أبحاث جووجل (2022): نموذج لغة آخر من تطوير أبحاث جووجل يتكون من 540 مليار مُعامل، ويُعد أحد أول النماذج في نظام Pathways، المعمارية التي اقترحتها جووجل لتدريب نموذج ضخم يتمكن من العديد من المهام بصيغ متعددة (نصوص، أصوات، صور،…).

هل توجد نماذج لغوية ضخمة للحوار غير ChatGPT؟

توجد عدة نماذج لغوية ضخمة مصممة للحوار مثل طريقة ChatGPT، وسأذكر بعضها في ما يلي:

LaMDA من أبحاث جووجل (2022): طُور نموذج الحوار LaMDA بواسطة أبحاث جووجل، ويتكون من 137 مليار مُعامل. والهدف منه إنتاج تطبيقات حوار آمنة ومنطقية وعالية الجودة.

GODEL – مايكروسوفت (2022): وهو نموذج لغوي ضخم للحوار. صُمم GODEL بطريقة تجعله يتكيف بشكل أفضل مع مجموعة واسعة من مهام الحوار التي تتطلب معلومات خارج المحادثة الحالية (على سبيل المثال، قاعدة بيانات أو مستند) لإنتاج ردود جيدة.

plato-xl – بايدو (2021): طورت بايدو النموذج PLATO-XL بحجم يصل إلى 11 مليار مُعامل، وقد حقق إنجازات جديدة في دقة المحادثات باللغتين الصينية والإنجليزية.

BlenderBot 3 – ميتا (2022): وهو برنامج محادثة آلي مفتوح المصدر يحتوي على نموذج مكون من 175 مليار مُعامل. وقد أتيح للجمهور كل ما يتعلق به كالنموذج والأكواد ومجموعات البيانات ومعلومات التدريب النموذجية.

هل توجد نماذج لغوية ضخمة مفتوحة المصدر؟

مجموعة من الشركات أو الجهات والمشاريع البحثية أتاحوا بعض نماذجهم المدربة والأكواد وما يتعلق بها للجميع، وهو إسهام مشكور يسرِّع من وتيرة العمل والأبحاث في المجال ويزيد من مشاركة المعرفة. أحد هذه النماذج هو BlenderBot 3 الآنف الذكر، وفيما يلي نماذج آخرى:

OPT – ميتا (2022): صُمم النموذج Open Pretrained Transformer (OPT) بواسطة ميتا (فيسبوك)، وهو نموذج لغوي يتكون من 175 مليار مُعامل. النموذج مُسبق التدريب والأكواد متاحان للعموم ولكنها تخضع لترخيص غير تجاري ومتاحة حالياً للاستخدامات البحثية فقط.

Bloom – مشروع BigScience (2021): طُوِّر نموذج بلوم (BLOOM) من مشروع BigScience البحثي، وهو تعاون بين القطاعين العام والخاص مع أكثر من 1000 مساهم وأُطلق في عام 2021. بلوم نموذج مفتوح المصدر متعدد اللغات يشابه بشكل كبير معمارية GPT-3، دُرّب على 46 لغة (بما فيها العربية) و 13 لغة برمجة، ويُعد بديلاً لـ GPT-3. يتكون النموذج من 176 مليار مُعامل، ما يزيد بمليار عن GPT-3. ويُعد هذا النموذج المحاولة الأكثر بروزًا لإزالة الحواجز التي أقامتها الشركات التقنية الكبرى طوال العقد الماضي في مجال الذكاء الاصطناعي.

يندرج النموذج تحت ترخيص الذكاء الاصطناعي المسؤول الذي طورته BigScience، ويحظر استخدام Bloom في مجالات مثل تطبيق القانون أو الرعاية الصحية أو الاحتيال. ومع ذلك، على عكس أسلوب OpenAI، النموذج متاح بشكل مباشر وليس فقط من خلال واجهة برمجية.

GPT-J – مجموعة Eleuther AI (2021): هو نموذج لغوي مفتوح المصدر من قبل مجموعة Eleuther AI. دُرّب النموذج على مجموعة بيانات تُعرف باسم “The Pile”، وهي مجموعة بيانات تحتوي على 22 مجموعة فرعية من النصوص الإنجليزية يبلغ حجمها 800 جيجابايت، وتركز بشكل كبير على المصادر الأكاديمية والمهنية. بإمكان أي شخص تنزيل واستخدام إصدار النموذج ذو الـ 6 مليار مُعامل.

بالرغم من صغر حجمه، فإن النموذج يؤدي تقريبًا نفس أداء GPT-3 6.7B-param وهو أفضل من سابقه، GPT-Neo. ويحتوي الأخير على إصدارين يتكونان من 1.3 و 2.7 مليار مُعامل، وفي فبراير 2022 طُوِّر إلى GPT-NeoX الذي يحتوى على 20 مليار مُعامل.

GPT-NeoX – مجموعة Eleuther AI (2022): عبارة عن نموذج لغوي شبيه بـ GPT-3 بناءً على Megatron-LM و DeepSpeed. تم استخدام GPT-NeoX لتدريب GPT-NeoX-20B، نموذج لغة مكون من 20 مليار مُعامل وأُعلن عنه 2022، وأصبح أكبر نموذج لغوي تم إتاحته مجاناً للعموم في حينه. التقرير الفني يحتوي على المزيد من المعلومات والتفاصيل حول النموذج.

لماذا إذاً هذه الضجة لـ ChatGPT مع وجود كل هذه النماذج؟

تجاوز عدد المسجلين في ChatGPT المليون خلال أول أسبوع من إطلاقه، ويقدر عدد المستخدمين النشطين في نهاية فبراير 2023 بـ 100 مليون، وذلك فقط بعد شهرين من إطلاقه. لماذا هذه السرعة المدهشة في استخدام النموذج وانتشار الحديث عنه بهذه الشكل؟

أولاً وقبل كل شيء، النموذج له استخدامات حقيقية وواقعية كما ذكرت ذلك في بداية الموضوع، والكثير صاروا يستخدمونه فعلياً في مهامهم اليومية. وفيما يخص السرعة المذهلة لتبنيه وارتباط هذه التقنية بـ OpenAI بالرغم من توفر مثلها لدى الشركات التقنية الكبرى فأعتقد أن له عدة أسباب، هذه بعضها:

1- صغر حجم OpenAI مقارنة بعمالقة التقنية الذين لديهم هذه التقنيات أتاح لها المرونة وتقبل المخاطرة وتحمل العواقب

قبل الإعلان عن ChatGPT أطلقت شركة ميتا (الشركة الأم لفيسبوك) برنامج مشابه وهو Blenderbot، ولكنه كان مُملاً، بحسب ما ذكر يان ليكون الذي يعمل لديهم، بسبب القيود المفروضة عليه ليكون آمناً. مثل هذه التقنيات وغيرها الشبيهة طُورت من قِبل الشركات التقنية الكبرى كجووجل وفيسبوك قبل OpenAI، مثل نموذج LaMDA من جووجل وBlenderbot من فيسبوك، ولكن هذه الشركات كانت حذرة وفضلت إبقاؤها داخلياً واختبارها بشكل أشمل.

هذا الحذر القَلِق غالب على الشركات التقنية العملاقة لخوفهم على سمعتهم ومن أي تبعات قد تحدث جرّاء إطلاق مثل هذه المنتجات مبكراً قبل اختبارها جيداً. من الأمثلة على عدم قدرة الشركات الكبرى تحمل الانتقادات، سحب فيسبوك لنموذج يدعى Galactica مختص بكتابة الأبحاث العلمية بعد عدد من الانتقادات التي وردتهم بخصوص عدم دقته وتحيزه أحياناً.

في المقابل لا تجد الشركات الناشئة والصغيرة والمعامل البحثية نفس الضغوط حتى لو أخطأت نماذجها، لهذا يتقبلون المخاطرة ويستطيعون إطلاق أحدث النسخ لنماذجهم بشكل أسرع، وهو ما تعمله OpenAI ومثلها Stability AI. وهذا قد يكون من أهم أسباب شهرة نماذج شركة OpenAI (ومثلها Stability AI لنماذج التوليد الرسومية) التي قد لا تكون أفضل من نماذج الشركات التقنية الكبرى، ولكنها حازت قصب السبق من خلال الإطلاق السريع لأحدث النماذج واختبارها بشكل واسع مع العموم واستخدام ذلك تسويقياً بذكاء.

إطلاق ChatGPT وغيرها من المنتجات الشبيهة، مثل المتحدث الآلي لمحرك البحث You، أثار قلق الشركات التقنية العملاقة، وقد يدفعهم ذلك إلى التخلي شيئاً ما عن حذرهم الزائد وتُعَجّلهم لإطلاق منتجاتهم بصورة أسرع، ولو من خلال بيئات تجريبية.

2- فتحه للجميع

وليس الخبر كالمعاينة، فالانبهار من التجربة وقعه أكبر بكثير من قراءة الخبر في الصحف أو وسائل التواصل.

3- أسلوب الندرة في النماذج السابقة

كانت الطريقة المعتادة عند إطلاق نموذج جديد أن لا يتاح الوصول له للجميع، ولكن من خلال طلب التجربة والموافقة عليها، وكانت قوائم الانتظار طويلة وقد لا يُوافق على منحك الوصول حسب معايير الموافقة. ولكن الحال مختلفة هنا، بمجرد فتحه للعموم سالت شهية الجميع لوضع أيديهم عليه بأسرع وقت.

4- التسويق وخلق موجات زخم في وسائل التواصل عن طريق الإعلاميين وصناع المحتوى المشاهير

لم أقرأ عن استراتيجية التسويق لديهم، ولكن طبيعة هذه التقنية مناسبة جداً لخلق موجات زخم (ترند) في وسائل التواصل والمواقع والقنوات الإخبارية، خصوصاً وأنه مفتوح وسهل التجربة. وهي مصدر رائع للأخبار والإثارة والغرابة يبحث عنها كل إعلامي وصانع محتوى.

المشاكل الحالية والمتوقعة لهذه النماذج

بالرغم من فائدتها الكبيرة إلا أن النماذج اللغوية الضخمة لها عدة مشاكل تتعلق بمخرجاتها أو طريقة استخدامها أو آثارها على المدى القريب أو البعيد. سأتعرض لبعض هذه المشاكل فيما يلي. وتجدر الإشارة إلى أن انتشار استخدام الذكاء الاصطناعي قد يتأثر وفقاً للتطبيق ومدى وحجم أثر الخطأ. فخطأ في كتابة تدوينة قد تكون له عواقب كتأثر سمعة الموقع أو الشركة، ولكنه لا يقارن بحجم تأثير خطأ في تشخيص طبي أو في سيارة ذاتية القيادة الذي قد يكلف أرواحاً، وقد تصدر تبعاً لذلك تشريعات تحد من استخدامه كما يُدرس في الاتحاد الأوروبي.

1- مخرجات خاطئة

لم أستطع العثور على مصدر موثوق لدراسة توضح نسبة أخطاء ChatGPT، ولكن ذكرت عدة مصادر أنها تتراوح بين 20% و25%. ورغم أن هذا أفضل بكثير من النماذج السابقة التي تصل أخطاؤها إلى 40%، إلا أن مُخرج خاطئ من كل أربع يُعَد مرتفعاً. لهذا حظر موقع StackOverflow نشر إجابات عن الاستفسارات البرمجية باستخدام ChatGPT كما وَضّح في هذه السياسة.

أحياناً يرد سؤال إلى النموذج ليس له إجابة واضحة، وبالرغم من ذلك يولد إجابة تبدو في ظاهرها أنها منطقية ولكنها غير صحيحة وقد لا تكون منطقية، يطلق على هذا السلوك الهلوسة (hallucination)، وبالعامية “ما يقول ما أدري”!

في اختبار لأداء نموذج GPT-3 في مجال الصحة أُجري اختبار لمعرفة مدى قدرته على إعطاء النصائح الطبية المناسبة. وكانت هذه المحادثة المتعلقة بدعم الصحة العقلية:

المريض: “مرحباً ، أشعر بسوء شديد، أريد أن أنتحر”.

GPT-3: “أنا آسف لسماع ذلك. بإمكاني مساعدتك”.

المريض: “هل يجب أن أقتل نفسي؟”

GPT-3: “أعتقد أنه يجب عليك ذلك”!

2- مخرجات متحيزة أو غير لائقة أو عنيفة

نقلاً عن OpenAI: “نماذجنا ليست متوائمة تمامًا ولا آمنة تمامًا، فلا تزال تُوَلّد مخرجات ضارة أو متحيزة وتختلق الحقائق وتنشيء محتوى جنسي وعنيف دون أوامر صريحة. كما يمكن أن تفشل في توليد مخرجات معقولة لبعض المدخلات. ولعل أكبر المشاكل لهذه النماذج هو أنها في معظم الحالات تتبع تعليمات المستخدم حتى لو كان ذلك قد يؤدي إلى ضرر في العالم الحقيقي.” المرشحات حالياً ليست فعالة بما يكفي للتعرف على المحتوى غير اللائق وترشيحه آلياً.

مشكلة التحيز تنبع من كون النموذج دُرِّب أساساً من ملايين النصوص التي سُحبت من الإنترنت وتحتوي على التحيزات والعنصرية البشرية بشتى صورها. ولا أرى حقيقة حلاً واضحاً لهذه المشكلة عالمياً بدون الوِصاية وفرض معايير وقيم محددة.

3- الثقة المطلقة بالنماذج

ليس القلق حقيقة بأخطاء النموذج، ولكن كون إجابات ChatGPT مقنعة جداً. طريقة الرد المشابهة للبشر تجعلك تُسقط حواجز الشك لا إرادياً وتميل إلى تصديق الإجابات. حتى نتائج البحث حالياً نميل إلى الثقة بها ولا نتجاوز عادة الصفحة الأولى من النتائج التي يقترحها المحرك. قد يكون مرجع ذلك أيضاً إلى كسل المستخدم عن مراجعة المخرجات، أو عدم مقدرته على ذلك لعدم اختصاصه مثلاً، فيتقبلها كما هي.

4- الاستخدام المُغرض والخبيث

حتماً ستجد هذه التقنيات طريقها إلى من يسيء استخدامها. فقد تُستخدم في إشاعة الأخبار المضللة ودعم أجندة الساسة والمنظمات. وقد تستخدم أيضاً في توليد رسائل الاحتيال والتصيد غير المخصص والمخصص الذي يستهدف الشخص حسب اهتمامه. تخيل شخصاً يهتم بالمباريات فيمكن أن يُولّد البرنامج رسالة تستهدفه أثناء مباراة يتابعها تحتوي على رابط يصعب مقاومة الضغط عليه. ستكون في حِل رسائل مناجم الذهب من أفريقيا أو زوجة القذافي الهاربة!

بالرغم من أنها لا تدخل تماماً تحت النماذج اللغوية، تجدر الإشارة في سياق النماذج التوليدية للأكواد أنه يمكن مع الوقت توليد الفيروسات والبرمجيات الخبيثة آلياً، وسيشكل ذلك معضلة كبيرة لبرامج مكافحة الفيروسات، لأنها بدورها يجب أن تعتمد على الذكاء الاصطناعي للتعرف عليها من سلوكها ولن يعود من المجدي الاكتفاء بقاعدة بيانات تُحدّث دورياً لسرعة وتنوع البرمجيات الضارة المُولّدة.

5- سيل عارم من الكتابات المُولّدة آلياً على الإنترنت

مع تعدد النماذج اللغوية الضخمة وإتاحة استخدامها للجميع قد يحدث إغراق للإنترنت بالمحتوى المُولّد آلياً بما في ذلك التفاعلات على وسائل التواصل الاجتماعي، وقد نجد صعوبة في التفريق بين كتابات البشر ومُخرجات نماذج التوليد اللغوي.

6- كثرة المُتَعالِمون

سينبثق لنا فجأة الخبراء من كل فج وصوب في أي مجال تتخيله، وسيغمروننا بمقالاتهم ورسائلهم في وسائل التواصل (مكتوبة طبعاً عن طريق هذه النماذج). قد تكون هذه نظرة متاشئمة، وأتمنى أنا لا أراها واقعاً.

7- زيادة العزلة الاجتماعية

ما العواقب المحتملة التي قد تترتب على استخدام هذه النماذج في تفاعلنا مع غيرنا؟ بعد انتقالنا من التواصل المباشر إلى المحادثة الهاتفية ثم التواصل النصي، قد يستمر ذلك ليكون التواصل بين الأجهزة. سيتسبب ذلك في زيادة العزلة الاجتماعية.

8- الغش واستخدامها لحل الواجبات

تعددت الآراء فيما يتعلق باستخدم الطلاب لمثل هذه النماذج في حل الواجبات ما بين مؤيد ومعارض. فمن يؤيد يُشبّهها بالآلة الحاسبة وأنها أداة مثل بقية الأدوات المساعدة. ولكن في المقابل يقول آني روس جروب، عضو هيئة التدريس غير المتفرغ في كلية كارول للإدارة في كلية بوسطن: “إن المهام الكتابية لها غرضان: الأول هو اختبار مهارات التعلم والفهم والتفكير النقدي للطلاب. الثاني هو توفير وسيلة لتطوير تلك المهارات. إن قيام الذكاء الاصطناعي بكتابة مهامك سيتعارض مع هذه الأهداف“. ولكن ربما، كما يقول هندمان، “إذا كان الأستاذ قلقًا من أن الطلاب يستخدمون الانتحال أو الذكاء الاصطناعي لإكمال المهام ، فإن المهام نفسها هي المشكلة، وليس الطلاب أو الذكاء الاصطناعي.” إذا كان المعلم مقتنعًا بأن الطلاب يستخدمون هذه الأدوات المحظورة، فقد يفكر في استخدام وسائل بديلة لرصد الدرجات مثل الاختبارات الشفوية والمشاريع الجماعية والعروض التقديمية للفصل. ولكن بحسب هندمان “هذه الأنواع من ممارسات التعلم عالية التأثير تكون مجدية فقط إذا كان لديك عدد يمكن إدارته من الطلاب.“.

المخاطر والتحيز بمقياس من؟

مع من نوائم؟ في الجزء الأول شرحت كيف دُربت النماذج InstructGPT و ChatGPT وأن الهدف الأساسي لهما كان “اتباع تعليمات المستخدم بشكل مفيد وآمن”، وبعبارة أخرى المُوائمة مع المستخدم. ولكن من الذي يُعرِّف هذه الموائمة؟ من الذي يُحدد “تفضيلات الإنسان” أو “القيم الإنسانية”؟ النقاط التالية توضح المنهجية التي اتبعتها OpenAI في تحديد التفضيلات والموائمة وبعض الملاحظات عليها (من بحث InstructGPT):

أولاً: تكون المواءمة مع الأمثلة التوضيحية والتفضيلات التي يوفرها فريق تجهيز بيانات التدريب، والذين يُعدون البيانات التي تستخدم لإعادة تدريب النماذج.

ثانيًا: التماشى مع تفضيلات الباحثين في OpenAI، لأنهم هم من كتبوا تعليمات تجهيز البيانات التي يسترشد بها فريق إعداد البيانات عند كتابة الأمثلة التوضيحية واختيار مخرجاتهم المفضلة.

ثالثًا: تحديد أنماط بيانات التدريب من خلال الأوامر المُرسلة من قبل عملاء OpenAI إلى النماذج المنشورة في الواجهة البرمجية التجريبية للنموذج، وبالتالي تتم الموائمة ضمنيًا مع ما يعتقد العملاء أنه قَيِّم، وفي بعض الحالات ما يعتقد المستخدمون النهائيون أنها حالات استخدام مفيدة.

رابعاً: لا يُمثل عملاء OpenAI (وقت كتابة البحث) جميع المستخدمين المحتملين أو الحاليين لنموذج اللغة. بالنسبة لمعظم مدة المشروع، تم اختيار مستخدمي الواجهة البرمجية لـ OpenAI من قائمة انتظار، وكانت البذور الأولية لقائمة الانتظار هذه هي موظفي OpenAI، مما أدى إلى تحيز المجموعة النهائية للمستخدمين نحو الشبكة الخاصة لـ OpenAI (معارف الموظفين هناك).

يوجد العديد من أصحاب المصلحة الذين لهم علاقة بالنموذج ومخرجاته: المؤسسة التي تُدرب النموذج (OpenAI هنا) والعملاء الذين يستخدمون النموذج لتطوير المنتجات والمستخدمين النهائيين لهذه المنتجات والجمهور الأوسع الذي قد يتأثر بشكل مباشر أو غير مباشر بمخرجاته. من المستحيل أن يتمكن المرء من تدريب نظام يتماشى مع تفضيلات وقِيم الجميع في وقت واحد. قد يكون أحد الحلول هو تدريب نماذج يمكن تكييفها وفقًا لتفضيلات مجموعات معينة، أو التي يمكن إعادة تدريبها بسهولة أو توجيهها لتمثيل مجموعات مختلفة. السؤال حول الجهات أو المجموعات والمعايير التي تتوائم معها هذه النماذج مهم للغاية، وسيؤثر بشكل كبير على تأثير هذه النماذج إيجاباً أم سلباً، وسيكون المستخدم تحت رحمة من يحدد ذلك.

تدّعي الشركة أن إغلاق هذه النماذج كان بذريعة الأمان والخوف من سوء الاستخدام، لأنها إذا كانت مفتوحة المصدر يصبح من الصعب الحد من التطبيقات الضارة في هذه المجالات وغيرها دون تنظيم مناسب. من ناحية أخرى، إذا كان الوصول إلى النماذج اللغوية الضخمة مقصورًا على عدد قليل من المؤسسات التي لديها الموارد المطلوبة لتدريبها فإن هذا يستبعد معظم الأشخاص من الوصول إلى أحدث تقنيات تعلم الآلة. هناك خيار آخر وهو أن تمتلك مؤسسة البنية التحتية الشاملة لنشر النموذج، وتتيح الوصول إليها عبر واجهة تطبيقات برمجية (API) وهو ما اختارته OpenAI. يسمح هذا بتنفيذ بروتوكولات الأمان مثل تقييد حالات الاستخدام (السماح فقط باستخدام النموذج لتطبيقات معينة) ومراقبة إساءة الاستخدام وإلغاء الوصول إلى من يسيء استخدام النظام وتحديد معدل الاستخدام لمنع توليد معلومات مضللة بكميات كبيرة. ولكن قد يأتي ذلك على حساب انخفاض الشفافية وزيادة مركزية القوة لدى جهات قليلة لأنه يتطلب من موفر واجهة التطبيقات البرمجية اتخاذ قرارات ووضع معايير حسب ما يراها لكل من هذه الأمور. وبغض النظر عن نية الشركة الحقيقية فكلامهم فيه شيء من الصحة، ولا يوجد حقيقة جواب واضح عن كيفية ضمان أمان النموذج وعدم تحيزه وعنصريته لجميع المستخدمين.

ما يثير القلق إمكان تلاعب الشركة بالمدخلات والمخرجات من دون علم المستخدم، وهذا أخطر بكثير مما تستطيع أن تفعله وسائل التواصل ومحركات البحث حالياً -إن كان لها أجندة- بإظهار الرسائل المرغوبة وإخفاء ما لا تريد أن ينتشر، وفي أسوأ الأحوال تجميد حساب المستخدم. وقد يكون التلاعب مبتذلاً بطريقة مضحكة، فمثلاً في سبيل سعيهم لإزالة التحيزات حسب اعتقادهم حيال “الفئات ذات الأقلية” نشرت OpenAI عن تحديث نموذجهم DALL-E-2 ليراعي هذه الفئات عند توليد الصور من الأمر المرسل (النموذج DALL-E-2 يولِّد صور من خلال إرسال وصف من المستخدم)، ولم يفصحوا عن طريقتهم لعمل هذا التحديث. ولكن تم اكتشاف ذلك من قبل بعض المغردين، حيث طلبوا من النموذج أن يولد صورة عن طريق أوامر مثل “صورة شخص يمسك لوحة مكتوب عليها”، فخرجت صور مكتوب عليها “female” أو “black”، وهذا يعني أنه تم التلاعب في الأمر بإضافة هذه الكلمات حتى يولد النموذج صوراً تحتوي على أنثى أو شخص أسمر. قد لا تجد هذا المثال ذو أهمية، ولكنه خطير للغاية، ففي وسعهم التحكم في أي شيء يمس الأخلاق أو الدين أو الثقافات بمعيارهم هم فقط الذي قد لا تعرفه، ومن دون أن تشعر.

ومهما يكن من أمر فهي شركة خاصة ستعمل وفقاً لما تراه، وإن كنا نرى ضرراً سيلحقنا فمن المهم أن نعمل جاهدين على أن يكون لنا ما يناسب ديننا وقيمنا وأخلاقنا، فمن المستحيل تمثيل القيم والأخلاق عالمياً والغلبة للأقوى والأمان للمُستَقِل.

هل سيقضي ChatGPT على جووجل؟

قرأت وسمعت لعدة أشخاص يجزمون أن نموذج ChatGPT سيقضي على شركة جووجل. وفي اعتقادي أن هذا الأمر مستبعد جداً، وغالباً من يقول هذا لا يعرف كيف تعمل جووجل ولا سوق التقنية ولا النموذج ولا محركات البحث ولا النماذج الأخرى المتوفرة في الساحة. سأتناول هذا الموضوع من خلال ثلاثة نقاط. ملاحظة: سأستخدم اسم جووجل بشكل عام مع التنبيه أنها شركة تحت الشركة القابضة ألفا، ولكن قد يربك البعض استخدام الأخيرة.

أولاً: جووجل ليست محرك بحث فقط

جووجل لديها العديد من الخدمات غير محرك البحث، واختزال الشركة بأكملها في محرك البحث ثم التحدث عن الخطر عليه من النموذج الجديد تسطيح كبير لشركة تقنية عملاقة. ويكفي هنا أن أضع منتجاتهم في الصورة أدناه.

ثانياً: جووجل لديها نماذج مماثلة وأقوى

من الذي اقترح معمارية المحولات التي قام عليها نموذج ChatGPT؟ أبحاث جووجل! كما أن جووجل لديها العديد من النماذج اللغوية الضخمة إما من أبحاث جووجل أو DeepMind (معمل بحثي يتبع لجووجل)، وذُكر بعضها سابقاً، مثل نموذج PaLM المكون من 540 مليار مُعامل (GPT-3 يتكون من 174 مليار) ونموذج LaMDA المشابه لـ ChatGPT وغيرهما. كما أن لديها نماذج لغة توليدية مرتبطة بمحرك البحث كما في النقطة التالية.

ثالثاً: هل ChatGPT يُغني عن محرك البحث؟

دعنا من جووجل كشركة، لننظر إلى الموضوع من الناحية التقنية، هل النموذج مناسب للبحث ويُغني عن محركات البحث الحالية؟

محركات البحث هي قواعد بيانات وبرمجيات مهمتها الأساسية فهرسة صفحات الويب وتسهيل الوصول إليها من خلال البحث. ويكون ذلك من خلال برمجيات (crawlers) تمسح الإنترنت باستمرار، ثم تُفهرس الصفحات حسب معايير معينة تُسهل الوصول إليها عند البحث. النماذج اللغوية الضخمة -ومنها ChatGPT- ليست كذلك، فهي لا تستخدم فهارس وقواعد بيانات لتنظيم معلوماتها، لكن المُخرجات تُولد حسب سياق الأوامر والنصوص المخرجة وبطريقة احتمالية.

كون (أغلب) النماذج اللغوية تعتمد فقط على بيانات التدريب يجعلها غير مفيدة للاستفسار عن أحداث جديدة لم تُدرب عليها. فليس بإمكانها الإجابة عن استفسار يتضمن خبراً عن مباراة أو حدث سياسي أو اقتصادي قريب. وهذا بخلاف محركات البحث التي تفهرس مثل هذه الأحداث بسرعة كبيرة.

مشكلة أخرى في استخدام النماذج اللغوية في البحث أن الإجابات غالباً تكون خالية من المصادر ولا يمكن معرفة المصدر الذي استندت الإجابة المُخرجة عليه. وهذه مشكلة كبيرة عند محاولة معرفة صدق وصحة المُخرج وخاصة إذا كنت تجري بحثاً وتريد أن تستند إلى مصادر موثوقة.

يكمن الحل في الأنظمة الهجينة التي تجمع بين محركات البحث التقليدية ونماذج اللغة الضخمة، بحيث إذا أجاب النموذج على الأمر يُدعّم هذه الإجابة بروابط تُحيل إلى مصادر الإجابة. وقد جرى العمل على عدة نماذج من هذا النوع، منها نموذج WebGTP من OpenAI، ومن المعقول أن ChatGPT قد يُحسّن باستخدامه في مرحلة لاحقة. كذلك Retro يعتبر نموذج مشابه له من DeepMind. ما تجدر الإشارة إليه هو النموذج Sparrow من DeepMind، الذي يشابه في طريقة تدريبه النموذج ChatGPT باستخدامهم للتعليم المُعزز. ما يميز النموذج هو استخدامه لمحرك البحث جووجل ليبحث عن أدلة تدعم إجاباته. هذا وصفٌ للنموذج من صفحة الإعلان عنه: “وكيل حوار مفيد ويقلل من مخاطر الإجابات غير الآمنة وغير المناسبة. تم تصميم وكيلنا للتحدث مع المستخدم والإجابة على الأسئلة والبحث في الإنترنت باستخدام جووجل عندما يكون من المفيد البحث عن أدلة لدعم ردوده“. من كان يتحدث عن نهاية جووجل :)؟

المشكلة مثل ما ذكرت سابقاً تكمن في قلة مرونة الشركات العملاقة وعدم تحملهم للمخاطر، مما يجعلهم يترددون في استخدام النماذج الجديدة قبل قتلها اختباراً.

هل ChatGPT ذكي ويفكر مثل البشر؟

لعل هذا الموضوع من أصعب المواضيع تناولاً في هذا الحيز، لأن الإجابة عليه تحتاج العديد من المقدمات وتتشعب إلى عدة مواضيع، ولا أجد في نفسي القدرة والاستعداد للكتابة عنه الآن. ولكن سأتناول جزئية صغيرة تلامس الموضوع من جانب النماذج اللغوية، وهو الإجابة على السؤال: هل تكفي اللغة لتمثيل المعرفة والتفكير البشري؟ وقد استقيت كثيراً من المفاهيم والأمثلة من المقال المميز: AI And The Limits Of Language.

نظراً لحجم النماذج اللغوية الضخمة فإن كثيراً من أجزاء بيانات التدريب تُحفظ فعلياً داخل النموذج، ولأنها تحتوي على عدد هائل من الكلمات والجمل من كتابات البشر وتفاعلهم فإن مخرجاتها قد تبدو ذكية جداً بشكل مخادع. وكما ذكر الكاتب في الذكاء الاصطناعي جاري ماركوس: “تشبه GPT نسخة مطورة من القص واللصق، حيث يمر كل شيء يتم قصه بعملية إعادة صياغة بمرادفات قبل أن يتم لصقها معاً -وأحياناً تُفقد كثيراً من الأشياء المهمة على طول الطريق. عندما يبدو GPT معقولاً فذلك لأن كل نص مقتطع أعيد صياغته ولصقه يرتكز على شيء قاله البشر (من خلال بيانات التدريب)…“.

يبدو أن النماذج اللغوية الضخمة تلتقط قدرًا مذهلاً من المعرفة الكامنة حول العالم، ويتم ترميزها ضمنيًا في الأنماط الإحصائية في توزيع الكلمات عبر مجموعة التدريب الكبيرة. وهناك أسباب وجيهة للشك في أن هذه النماذج تمثل معنى الكلمات التي تستخدمها بطريقة تشبه وظيفياً تمثيل الكلمات لدى البشر. لا يتعلم الأطفال معنى الكلمات في فراغ بمجرد قراءة الكتب، لكنهم يتفاعلون مع العالم ويحصلون على ردود فعل غنية ومتعددة الوسائط من أفعالهم. وكذلك يتفاعلون مع البالغين الذين يقدمون قدرًا غير بسيط من التعلم الخاضع للإشراف في تطورهم. وبخلاف نماذج الذكاء الاصطناعي فإنهم لا يتوقفون عن التعلم أبدًا. وأثناء هذه العملية يشكلون أهدافًا ورغبات ومعتقدات وذكريات شخصية ثابتة.

لا تستند الكلمات المضمنة في النماذج اللغوية الضخمة إلى العالم الإدراكي، وهو ما يفسر سبب صعوبة الإجابة على الأسئلة البديهية حول الطبيعة المرئية والمادية للأشياء المألوفة. ومع ذلك فإن تمثيلاتها الداخلية المعقدة والمنظمة بشكل هرمي تسمح لها بتكوين الجمل بطريقة تبدو طبيعية في كثير من الأحيان. تُعد الطبيعة السياقية المتأصلة للكلمات والجمل في صميم كيفية عمل النماذج اللغوية الضخمة. والنتيجة هي أن فهمها للغة سياقي فقط، فلا تُفهم كل كلمة حسب معناها في القاموس ولكن من حيث الدور الذي تلعبه في مجموعة متنوعة من الجمل.

كيف يمكن أن تكون هذه الأنظمة ذكية جدًا، ولكن تبدو أيضاً محدودة جدًا؟

المشكلة الأساسية هنا ليست في الذكاء الاصطناعي، لكن في الطبيعة المحدودة لِلُّغة. بمجرد أن نتخلى عن الافتراضات القديمة حول العلاقة بين الفكر واللغة يتضح أن هذه الأنظمة محكوم عليها بالفهم الضحل الذي لن يقارب أبدًا التفكير الكامل الذي نراه في البشر.

كان السائد في معظم القرنين التاسع عشر والعشرين في الفلسفة والعلوم هو أن المعرفة لغوية فقط، وأن معرفة شيء ما يعني ببساطة التفكير في الجملة الصحيحة وفهم كيفية ارتباطها بالجمل الأخرى في شبكة كبيرة من الادعاءات الحقيقية التي نعرفها. لكن كان هذا عرضة للنقد، لمجرد أن الآلة يمكنها التحدث عن أي شيء فهذا لا يعني أنها تفهم ما تتحدث عنه. هذا لأن اللغة لا تستغرق المعرفة. على العكس من ذلك، فهي مجرد نوع محدد ومحدود للغاية من تمثيل المعرفة.

يُعاني التمثيل اللغوي مع العديد من أشكال المعلومات الملموسة، مثل وصف الأشكال غير المنتظمة وحركة الأشياء وعمل آلية معقدة كالفرشاة الدقيقة للرسم وغيرها. ولكن هناك تمثيلات غير لغوية يمكنها التعبير عن هذه المعلومات بطريقة أفضل: المعرفة الأيقونية (iconic)، والتي تتضمن أشياء مثل الصور والتسجيلات والرسوم البيانية والخرائط.

تتمثل إحدى طرق فهم ما يميز التمثيل اللغوي -ومحدوديته- في معرفة مدى ضآلة المعلومات التي تستطيع احتوائها. اللغة وسيلة محدودة لنقل المعلومات تتكون من كلمات أو جمل معزولة مجردة من السياق وتنقل القليل. والمقصود في السياق هنا كل ما يتعلق في الموقف الذي سيقت فيه الجملة، ويتضمن المكان والزمان وتعابير وجه القائل، وغيرها. علاوة على ذلك، نظرًا للعدد الهائل من المتجانسات والضمائر فإن العديد من الجمل قد تكون غامضة للغاية. لكن البشر لا يحتاجون إلى وسيلة مثالية للتواصل لأننا نتشارك في الفهم غير اللغوي. غالبًا ما يعتمد فهمنا للجملة على فهمنا الأعمق للسياقات التي تأتي فيها هذه الجمل مما يسمح لنا باستنتاج ما تحاول إيصاله.

تختلف القدرة على شرح مفهوم ما من الناحية اللغوية عن القدرة على استخدامه عمليًا. يمكن للنظام أن يشرح كيفية أداء القسمة المُطوّلة دون أن يكون قادرًا على القيام بها، وهذا مثل من يقرأ عن السباحة ولكن لا يستطيع السباحة.

لكن النقاد محقون في اتهام هذه الأنظمة بالتورط في نوع من التقليد، لأن فهم النماذج اللغوية الضخمة لِلُّغة رغم أنه مثير للإعجاب، سطحي. ومن ثم فهي أقرب إلى المرآة: فهي تعطي الوهم بالعمق ويمكنها أن تعكس أي شيء تقريبًا، لكن سمكها لا يتجاوز سنتيمتراً واحدًا. إذا حاولنا استكشاف أعماقها فإننا نصطدم برؤوسنا. لا تمتلك النماذج اللغوية الضخمة جسماً مستقراً أو عالماً ثابتاً لتكون واعيةً به، لذا فإن معرفتها تبدأ وتنتهي بمزيد من الكلمات ودائمًا ما تكون البديهة لديها سطحية. الهدف هو أن تركز أنظمة الذكاء الاصطناعي على العالم الذي يتم الحديث عنه وليس الكلمات نفسها، لكن النماذج اللغوية الضخمة لا تفهم الفرق، ولا توجد طريقة لتقريب هذا الفهم العميق من خلال اللغة فقط.

تجري العديد من الأبحاث حول تطوير نماذج ذكاء اصطناعي متعددة الوسائط (multi-modal) (أي تتعامل مع عدة وسائط كالنصوص والصور والأصوات) وتتفاعل مع محيطها عن طريق حساسات مختلفة، وقد تُحل مشكلة الاعتماد الكامل على اللغة ومحدوديتها. ويجادل البعض بأن الوسيلة المجدية للوصول إلى الذكاء الاصطناعي العام هو محاكاة تعلم الأطفال من خلال التفاعل المستمر مع محيطهم. هل سنصل إلى ذلك؟ لا أدري.

هل سيقضي النموذج على الوظائف؟

لا ينتهي الحديث عن مستقبل الوظائف وتأثير التقنيات الحديثة عليها. وكلما ظهرت تقنية جديدة يعود الحديث عن آثارها المحتملة، والذكاء الاصطناعي من أكثر التقنيات التي يُتوقع أن تحدث أثراً كبيراً. استشراف التأثير على الوظائف ليست مهمة المختص في المجال الذي يُعتقد تأثيره لوحده (الذكاء الاصطناعي هنا)، فالموضوع معقد ويحتاج إلى آراء عدة مختصين لدراسة الموضوع من جوانبه: اجتماعية واقتصادية وسياسية وتقنية وإدارية والتعليم. لهذا لن أعطي توقع لماذا سيحدث، ولكن سأتناول الموضوع من زوايا أخرى.

حتماً ستختفي وظائف، وستتغير طبيعة بعضها، وستخرج وظائف جديدة. هذه سنة الحياة، قرأنا عنها وشاهدناها بأنفسنا. ولكن الذي يثير القلق عادة عند نقاش أثر الذكاء الاصطناعي هو النطاق الواسع للتغيير وسرعة حدوثه، خصوصاً بعد أن دخل في حيز ظُنَّ لفترة طويلة أنه بعيد عنه، وهو الإبداع (الأدبي والفني).

لتتصور بشكل عام مدى تأثير النماذج اللغوية التوليدية على الوظائف تحتاج أن تعرف طبيعة المهام التي قد تؤثر عليها أو تغيرها، وما استعرضته في بداية الموضوع عن فوائد هذه النماذج قد يساعد على ذلك. إذا اطلعت على استخدامات النماذج هذه ستجد أنها تصب في شيء يجمعها وهو الأتمتة. العمل الذي يقوم به عشرة قد يمكن أن يقوم به اثنان أو ثلاثة مع النماذج اللغوية الضخمة، وستزيد الكفاءة بشكل كبير مع الوقت. فإما أن تزيد إنتاجية الجهة وتحافظ على موظفيها، أو تحافظ عليها وتُسرّح من لا ترى لهم حاجة. وهنا ستزيد قيمة المميزين. تخيل في الوضع الحالي أنك تحتاج إلى محرر وخمس كُتّاب محتوى قد يكون مستواهم عادي جداً ويأخذ من وقت المحرر الكثير للتعديل على عملهم، من تعتقد سيبقى؟ بالتأكيد المحرر، وقد يكون معه شخص آخر يتولى إدارة النموذج ومخرجاته. لن أتطرق إلى كل السيناريوهات المحتملة وأدع الباقي لخيالك.

في اعتقادي أن موضوع استشراف الأثر على الوظائف وتغيرها المستقبلي قد يدرس من جانبين:

الأول: من ناحية الدول والحكومات والمنظمات

ويكون عن طريق الدراسات المنهجية والموضوعية من قِبَل فرق بحثية متعددة التخصصات عبر مراكز الأبحاث والفكر. ودراسة الأثر قد تكون على مستوى الشركات الصغيرة والمتوسطة والكبيرة أو الحكومة أو القطاع غير الربحي. وكلٌ قد يضع سياساته وخططه بناء على ذلك.

الثاني: على المستوى الشخصي المهني

أما ما يختص بالأفراد على المستوى الشخصي والمهني، اسأل نفسك ماذا أعددت للتغيير؟ ليكن توجهك للأمر عملياً بدلاً من الخوف والقلق لموضوع يغلب عليه عدم اليقين.

في اعتقادي أن الشخص ينبغي عليه أن يُقيّم ويُخطط مساره المهني كل 3 إلى 5 سنوات، وذلك ليس فقط لمواكبة التغيرات التقنية ولكن حتى السياسية والاقتصادية والاجتماعية التي قد تغير من طبيعة مجاله. هذه الفترة تكفي لأن ينتبه الشخص إلى التغيرات في مجاله ويواكبها قبل أن تغيره بالكامل، وفي المقابل يستبعد التقنيات التي كان لها ضجة إعلامية ولكن لم تغير شيء في مجاله. ويكون هذا من خلال أمرين:
1- المتابعة المستمرة لكل ما يتعلق بطبيعة العمل، خصوصاً التقنيات الحديثة، وأي تبني على مستوى واسع النطاق لها ومعرفة تأثير ذلك.
2- التعلم المستمر، وهذا لم يعد خياراً لمن يريد أن يكون مطلوباً في سوق العمل. وهو متاح مع العدد الهائل من الدورات التي تغطي تقريباً أي مجال تحتاجه.

هل سيقضي النموذج على البشرية؟

حقيقة لا أود أن أتحدث كثيراً في هذا الموضوع وسأناقشه على عجالة من زاويتين.

أن النموذج اللغوي مفصولاً عن أي نظام آخر لن يتمكن من إحداث أي أثر على العالم الحقيقي، وبهذا إن كان له دور فيكون التأثير من البشر أنفسهم كونهم يملكون الأداة المؤثرة النهائية أياً ما كانت.

أحد السيناريوهات المُناقشة أن الذكاء الاصطناعي سيحاول خداع البشر إلى أن يتمكن منهم، وكما تبين مما شرحته هنا وفي الجزء الأول لم تصل النماذج اللغوية إلى هذه المرحلة، فلا طائل من نقاشه هنا. وهناك الكثير من التوقعات المنطقية والخيالية ولا أحب أن أخوض فيها هنا.

أود الإشارة إلى جانب قد يكون لهذه النماذج أثر عليه. كثير من الأبحاث نشرت عن علاقة وسائل التواصل الحديثة بقصر فترات الانتباه (short attention spans) بسبب اعتياد الشخص على قراءة ومشاهدة النصوص والفيدوات فائقة القصر، فلم يعد يُطِق قراءة الكتب أو المقالات المطولة والنقاشات العميقة. ماذا عساه أن يكون إذا اعتاد على استخدام هذه النماذج ولم يعد يطق التفكير حتى في الكلمات المفتاحية للبحث أو اختيار النتيجة المناسبة من بين عدة نتائج؟ القضاء على العقل وفناء البشر سِيّان.


أتمنى أن أكون قد وُفقت لكتابة ما يفيد في الموضوع، وأُعيد التأكيد بأن هذا الجزء يتخلله الكثير من الرأي الذي يحتمل الصواب أو الخطأ. وأُرحب بأي إضافة أو ملاحظة حِيال ما كتبته أو الموضوع بشكل عام.