24 أيار 2024

× الرئيسة اليومية سياسة أرشيفنا
×

الذكاء الاصطناعي (2): النموذج اللغوي

ملاك غندور

17 آذار 2023

نعيش ما وصِف بزمن «انتقام بولايني»، تيمّناً بالبروفيسور المجري-البريطاني مايكل بولايني (المراسل - DALL.E)

تستكمل هذه المقالة سلسلة عن الذكاء الاصطناعي تعالج واقعه وتأثيره علينا.

 

تعالوا لنلعب لعبة... اللعبة بسيطة جداً. أعني أنّ قواعد اللعبة بسيطة: سأعرض عليكم جملاً غير مكتملة (وغير مترابطة)، وكل ما عليكم فعله هو تخمين أول حرف ناقص بأقل عدد من المحاولات. لنبدأ:

أكل الولد التف...

في ليلة ظلماء، ومع انقطاع التيار الكهربائي، لم أجد بديلاً عن ضوء الش...

لا يم...

هذه اللعبة ابتكرها المهندس والرياضي الأميركي كلود شانون المعروف في الأوساط العلمية بأبي نظرية المعلومات (Information Theory) عام 1951. تكمن أهمية هذه اللعبة في أنّها مفتاح لفهم موضوع هذه المقالة: الذكاء الاصطناعي في نموذجه اللغوي (مثلChatGPT).

لنجرِ التجربة الفكرية التالية: تخيلوا لو أنّ ذكاءً اصطناعياً صار بارعاً في هذه اللعبة، فيكون خارقاً لدرجة أنّه لو أعطي أيّ نص غير مكتمل، طويلاً أو مقتضباً، وسواء تناول العلوم أو الفلسفة أو الرياضيات أو الأدب أو الفن، أو باختصار أيّ نص يتناول أيّ تجربة إنسانية يمكن التعبير عنها باللغة، يستطيع أن يتوقّع بنسبة 100% أول حرف ناقص. فهل ستتفقون معي عندئذ أنّ هذا الذكاء يكون قد أظهر ذكاءً يحاكي الإنساني؟

ندعي أنّه يحاكي الذكاء الإنساني لأنّ إتقان هذه اللعبة يستدعي فهم النص وسياقه واستحضار ظرفه ومن ثم تخمين الجواب. وعلى مدى عقود، كان يشار إليها في الأوساط العلمية بأنّها «نموذج لغة» (Language Model)، وساد الاعتقاد بأنّ إتقانها يساوي حلاً لمسألة الذكاء اللغوي الاصطناعي. فهل قدّم نموذج ChatGPT حلاً نهائياً؟

 

وراء الستار

لا يمكن الإجابة عن هذا السؤال بالاكتفاء بعرض بعض الشواهد والأمثلة لنجاحات وإخفاقات ChatGPT. الممر الإلزامي هو تشريح ChatGPT والإضاءة على المفاهيم العلمية التي تأسس عليها، لفهم امتدادها وقيودها. سنحاول عرض العمود الأساسي لهذا النموذج بطريقة مبسطة جداً.

نواة هذا النموذج اللغوي هو ما يعرف بالتعليم المعزَّز (Reinforcement Learning) الذي هو إحدى مقاربات تعلّم الآلة (Machine Learning)، ويعتمد هذا التعليم في جوهره أسلوب مكافأة أفعال الذكاء الاصطناعي بنسب متفاوتة بحسب صوابية هذه الأفعال، ما يدفعه إلى انتقاء الفعل الذي يؤدّي إلى أكبر مكافأة ممكنة، تماماً كما نعزِّز الأطفال على الأفعال الصائبة بمكافأتهم. قد يكون الفعل الذي يقدِم عليه الذكاء الاصطناعي حركة جسديّة (كالمشي)، أو مهارة لغوية مثل تخمين الحرف الناقص في اللعبة التي ذكرناها.

تكمن الصعوبة هنا في كيفية ترجمة السلوك النهائي المرجو من الذكاء الاصطناعي اتخاذه إلى علاقة بين مكافأة وفعل. مثلاً لتعليم الروبوت كيفية المشي وعوضاً عن برمجة حركته بدقة، الأمر الذي قد يستغرق وقتاً طويلاً ومجهوداً جباراً، نستطيع أن نكافئه بنقطة واحدة كلما اجتاز خطوة دون أن يهوي إلى الأرض، وأيّ فعل آخر لا يكافأ عليه.

للحصول على أكبر قدر من المكافئات، يتعلم الروبوت عبر التجربة والخطأ (Trial and Error) أن يتناوب على تحريك قدميه اليمنى ثم اليسرى ليسير خطوات إلى الأمام. لكن ماذا يفعل بيديه أثناء المشي: هل يلوح بهما في الهواء؟ إذا أردنا منه أن يحاكي طريقة مشي الإنسان، يجب أن نكافئ خطواته إذا كانت يداه تترنحان إلى جانبه وظهره مستقيم... هنا نلحظ أنّ تصميم هذه العلاقة بين المكافأة والفعل هي علم بحد ذاته، بل نوع من الفن.

ماذا عن ChatGPT؟ كيف صمّمت المكافآت التي أفضت إلى هذا الذكاء اللغوي؟ السرُّ يكمن في مفهوم التعليم المعزَّز مع التغذية الرجعية البشرية (Reinforcement Learning With Human Feedback). باختصار: في مرحلة تدريب هذا النموذج وتعليمه كان يتغذّى على كميات هائلة من النصوص من الإنترنت والكتب (ما يقارب 570 جيجابايت من البيانات) لاستنباط أجوبة عدة عن السؤال الواحد الذي يطرحه المعلم (المبرمج في هذه الحالة)، ثم يصنِّف إنسان (قد يكون المبرمج أو شخص آخر) هذه الأجوبة من الأفضل إلى الأسوأ، مع تزويد النموذج بهذه العلامات ليتعلم الأجوبة التي يفضلها الإنسان.

فهذا النموذج اللغوي لبّ وظيفته أن يتحدث بطريقة تماشي أهواء البشر، وعندما ندرك هذا الشيء، يصير أمر محاكاته لطريقة تحدّثِ البشر غير مستغرب. طبعاً لسنا بوارد الانتقاص من هذا الإنجاز العلمي، فهو إنجاز بكل ما للكلمة من معنى، لكن من المهم أن يدرك القارئ أنّ هذه «القدرة البشرية في ظاهرها» لم تنبثق في هذا النموذج من العدم، بل كانت مصممة مع سبق الإصرار والترصد. هذه نقطة مهمة يجب أن يقف عندها كل من انتابه الذعر من مدى تطابق أدبيات وتعابير ChatGPT مع البشر، خاصة بلغة كالإنكليزية إذ يخطئ أكثر بالعربية مثلاً لأنّ البيانات بهذه اللغة على الإنترنت بمثابة نقطة في بحر الإنكليزية، ولذلك هو لم يتمرّن على العربية بالقدر الكافي.

في خلاصة: ChatGPT مبنيٌّ على خوارزميات تعلِّم الآلة، وتأخذ كميات هائلة من البيانات، وتبحث عن الأنماط والقواسم المشتركة إحصائياً بين هذه الأحرف والكلمات لتتمكن من إنتاج أو توليد نصوص تحاكي طريقة تكلم البشر وكتابتهم. للتبسيط، يمكنكم أن تتخيلوا أنّه أمسى نسخة متطورة جداً عن محرك البحث، فبدلاً من طرح صفحات معينة على السائل أن يقرأها ليجد جواباً كما يفعل Google، يعيد ChatGPT صياغة كافة المعلومات المتوافرة عن السؤال ويجيب بطريقة تحاكي المتحدث البشري.

يعجبني تعبير مؤلف قصص الخيال العلمي تيد شيانغ، الذي اقتُبِست إحدى مؤلفاته إلى الفيلم الشهير Arrival، بأنّه يمكننا أن نعدّ ChatGPT صورة ضبابية ومضغوطة عن كل النصوص على الإنترنت، تماماً كما أننا في بعض الأحيان نضغط الصور الفوتوغرافية العالية الجودة إلى حجم أصغر.

 

ChatGPT في الميزان

بسبب استعمال هذا الكم المهول من البيانات من الإنترنت لتعليم وتدريب هذا النموذج، إذ لا شاردة أو واردة أو فكرة خطرت على قلب أو عقل بشري إلا وقد دوِّنت في هذا الأرشيف الضخم، تخطّت استخدامات ChatGPT وظيفته الأساسية كروبوت دردشة. تبيَّن مثلاً أنّ لهذا النموذج القدرة على كتابة برامج الحاسوب، لأنّ الإنترنت يفيض بأسئلة طرحها مبرمجون هواة وأجابها مبرمجون ذوو خبرة عبر كتابة الجواب بلغة البرمجة (Code). حتى إنّ ChatGPT يستطيع عملياً أن يكتب الحكايات ويؤلف الموسيقا والشعر.

لا يعرف ChatGPT الحد الفاصل بين ما يعلم وما لا يعلم ليقف عنده (المراسل - DALL.E)

أسئلة كثيرة تطرح نفسها: ما حدود هذا النموذج، وهل يعي ما يقول؟ هل يملك فعلاً ذكاء لغوياً بشرياً؟ سنسرد بعض القيود التي يعاني منها هذا النموذج، والتي تشكل عائقاً أمام فهمه اللغة كما يفهما الإنسان:

1- مفهوم الوقت

هذا النموذج لا يملك مفهوماً نسبياً للوقت ولا عن علاقة الأحداث ببعضها بعضاً بالتسلسل الزمني. البيانات التي تغذَّى عليها خلال تمرينه كانت تأتيه كالنهر المتدفّق. يمكن أن يكون في أوّل هذا النهر مقالة صحافية تحوي عبارة: «ريال مدريد بطل دوري أبطال أوروبا»، ووسط سيل البيانات مقالة: «بايرن ميونيخ بطل دوري أبطال أوروبا»، وآخر النهر مقالة: «مانشستر يونايتد بطل دوري أبطال أوروبا». كلها في منظور النموذج عبارات سليمة ولا يستطيع أن يفهم من هو البطل الآن. هو يفهم الوقت فقط عندما يكون مطلقاً، كأن يقال في عام كذا فاز فريق كذا.

2- معرفة حقيقية عمّا يعلم

نعم، وبصريح العبارة، هذا الذكاء الاصطناعي لا يفهم ولا يعي ما يقول، ولا يعلم ما يعلم. هو أصلاً لا يفهم معنى «أن تعلم». هو كما شرحنا يخمن أو يتوقع ما الحرف التالي فالتالي، إلى أن تتشكل كلمة ثم جملة ثم فقرة فمقالة وهكذا دواليك. لا يعرف الحد الفاصل بين ما يعلم وما لا يعلم ليقف عنده. لذلك، نراه في كثير من الأحيان عندما لا يعرف الإجابة يتحول إلى «مولِّد نصوص» يقص ويلصق الكلمات والجمل ويخترع إجابات تثير السخرية ولا علاقة لها بالسؤال، وهو يفعل ذلك بكل ثقة (أمر خطير سنتطرق إليه).

3- بعد النظر

مع أنه أنشِئ ليكون روبوت دردشة، كان أهم نقاط ضعف هذا النموذج قِصر نظره. فكما شرحنا، جل هدف هذا الذكاء الاصطناعي أن يحصل على أكبر قدر ممكن من المكافأة عبر إعطاء الجواب الذي يتماشى مع رغبات الإنسان. هو متعطش للمكافأة الآنية ولذلك يحاول أن يعطي أفضل إجابة عن السؤال أمامه. هو لا يأخذ بالاعتبار أنّ هذه محادثة قد يكون لها هدف طويل الأمد يطمح أن يصل إليه المحاور في نهاية الحوار، تماماً كما يفعل البشر عندما يتفاوضون على عملية بيع وشراء. ألم تلاحظوا مثلاً أن ChatGPT  لا يطرح الأسئلة التوضيحية؟

إذاً، هو لا يعمل كما يعمل العقل البشري. هنا نقتبس من عالم اللسانيات الأميركي الشهير البروفيسور نعوم تشومسكي الذي كتب مقالة مثيرة للجدل في صحيفة The New York Times بداية شهر آذار/مارس بعنوان «وعود ChatGPT الواهية»: «إنّ العقل البشري ليس آلة إحصائية تبحث عن الأنماط المتشابهة وتلتهم مئات التيرابايتات من البيانات... على العكس، العقل البشري فعّال بشكل مدهش وهو نظام أنيق يعمل بكميات قليلة من المعلومات».

لكنّ حقيقة أنّ الذكاء الاصطناعي لا يعمل مثل العقل البشري لا تنفي عنه صفة الإفادة، فمما لا شك فيه أنّه أداة يمكن أن تعود على البشرية بالنفع (والضر).

 

عن الإنسان والآلة

الاستخدامات الكثيرة التي انبثقت عن هذا النموذج جعلت منه قوة مؤثرة فرضت نفسها على المجتمع ورافقها كثير من الآمال والطموحات وأيضاً المخاوف والهواجس، كما الحال عند ابتكار أي تكنولوجيا. فهل سيتحول ChatGPT أو الذكاء الاصطناعي إجمالاً إلى فرانكشتاين هذا العصر؟ هل سيمسي الكتَّاب والفنانون والمبرمجون متعطلين عن العمل؟ ماذا عن تأثيره في القطاع التربوي؟

التنبؤ الدقيق بما ستؤول إليه الأمور يحتاج إلى دراسات في علم الاجتماع والنفس والاقتصاد... لكن بالقدر المتاح سنحاول أن ننطلق من بعض المفاهيم الأساسية ونذكر بعض الشواهد التي قد تدل إلى أين ستتجه الأمور.

لم يبلغ هذا النموذج من الذكاء الاصطناعي الاستقلال والاستغناء عن الإنسان (المراسل - DALL.E)

المفهوم الأساسي الأول الذي يجب أن ندركه خصوصاً في هذا العصر هو أنّ المهارات المطلوبة للوظائف تتنامى كماً ونوعاً مع تقدم الزمن. الأمر أشبه بالتضخم حين تحتاج المزيد من المهارات للحصول على الوظيفة نفسها. هذا أصل في حركة تطور البشرية، فالقوى والأيدي العاملة هي في حركة إعادة تمرين وتأهيل متواصلة. من هنا، نستطيع أن نستنتج أنّ معظم الوظائف في المستقبل القريب ستتطلب القدرة على استعمال البرامج والأدوات المبنية على الذكاء الاصطناعي.

ليس الاستعمال فقط، بل نتصور أنّ بعض الوظائف ستحتاج حداً أدنى من فهم ومعرفة كيفية عمل هذه الخوارزميات حتى يتمكن المستخدم من تمييز «الخبيث من الطيب» وكيف ومتى يستعملها بفعالية. لا نستطيع أن نجزم أنّ الذكاء الاصطناعي سوف يستولي على بعض الوظائف، لكن بالتأكيد من يعرف كيف يستعمل أدوات الذكاء الاصطناعي سيجلس مكان الذي يجهل استعمالها.

ثانياً لم يصل هذا النموذج من الذكاء الاصطناعي بعد إلى المستوى الذي يسمح له بأن يكون مستقلاً أو مستغنياً عن الإنسان، أقله إلى لحظة كتابة هذه الأسطر. كما أشرنا، في كثير من الأحيان يخادع ChatGPT ويظهِر خبرة أو معرفة مزيّفة (طبعاً هو لا يملك شخصية مخادعة، بل هو فقط يجهل أنّه يجهل الإجابة). هنا، تكمن أهمية ألا نعيره عقولنا ونرى إجاباته نصاً منزلاً. إنّه بسبب قابليته على اتخاذ قرارات أو إعطاء إجابات غير متوقعة وصادمة يحتاج دائماً إلى إشراف بشري.

غير أنّ الخطير أنّ العلماء لا يستطيعون أن يتنبؤوا أو يفسروا كيف ومتى من الممكن أن تحصل هذه الأخطاء. لهذا، نجد أنّه إلى يومنا لا يستعمل الذكاء الاصطناعي المبني على الشبكات العصبونية (neural networks) في المجالات الحساسة التي تتعلق بسلامة الناس، مثل الطيار الآلي. هو صندوق أسود وفق تعبيرهم ولا نفهم التفاعلات داخله التي تؤدي إلى هذه السلوكات.

ثمّة في علم الفلسفة نظرية تعرَف بمفارقة بولايني تيمناً بالبروفيسور المجري-البريطاني مايكل بولايني الذي طرحها عام 1966، تقول إنّ البشر يعرفون أكثر مما يستطيعون أن يعبروا عنه. بمعنى آخر: هناك عدد لا بأس به من المهارات التي نعرف كيف نفعلها بديهياً وحدسياً لكننا لا نستطيع أن نعبر لفظياً عن الإجراءات والخطوات التي نتبعها لفعل ذلك، فمعرفتنا بها ضمنية. المثير للسخرية أنّه قبل سنتين أشار البروفيسور في علوم الحاسوب سوباراو كامبهباتي إلى أننا نعيش في زمن «انتقام بولايني» إذ إنّ معرفة الذكاء الاصطناعي بمهاراته هي معرفة ضمنية ولا يستطيع أن يشرح لنا كيف أتقنها.

 

كاتب جيّد

إنّ ChatGPT من سلالة الذكاء الاصطناعي التوليدي (الحرف G في اسمه كنية عن كلمة توليدي generative) أي تعطيه بعض العبارات فيولِّد نصاً. هذا النوع من الذكاء التوليدي أثار حفيظة الكتّاب. ماذا لو انصرف الناس نحو الذكاء الاصطناعي وتناسوا الإبداع الأدبي البشري؟ في واقع الأمر، لا يصلح وصف ما يفعله الذكاء الاصطناعي بالإبداع، أقله كما نفهم الإبداع البشري. فالنص الذي يكتبه ليس نتاج تأمّل أو بصيرة فكرية أو إلهام؛ هو خالٍ من الروحية الفكرية، وبطبيعة الحال هو لا ينظم نصاً من بنات أفكاره، ولا يحيكه.

لتقريب الصورة، يُحكى أنّ الشاعر والمسرحي البريطاني الحائز «جائزة نوبل» في الأدب توماس إليوت قال: «الكتّاب الجيّدون يستعيرون، والكتاب العظماء يسرقون». من يفهم هذه العبارة بعمق، فسيستنتج سريعاً بناء على كيفية عمل ChatGPT التي وضحناها أنّ هذا النموذج كاتب جيّد لكنه حتماً ليس عظيماً. إنَّما لنفترض أنّه في يوم ما تمكن من مضاهاة الإبداع البشري الأدبي والفني، بغض النظر هل الإبداع نتاج تقليد عبقري أو منبثق من ذكاء فكري حقيقي.

في تلك الحالة، ستصبح القضية قضية أذواق. قد تكون هناك فئة من الناس تحب أن تستمتع بالإبداع بغض النظر هل مبتدعه إنسان أو ذكاء اصطناعي. وفي المقلب الآخر، قد يكون هناك صنف يصر على ألا يقرأ إلا المقالات الخالية من الذكاء الاصطناعي. تخيلوا معي أن تصير الكتب واللوحات مذيّلة بعبارة عضوية !organic

لا بد أن نخرج من هذه النظرة القاتمة والمتجهمة ونسأل: كيف يمكننا أن نستفيد من هذه الأداة؟ يلفت استخدام تشومسكي عبارة «الشرير» في معرض حديثه عن ChatGPT. بالطبع هو ليس شريراً ولكن لأنه تمرن على بيانات الإنترنت التي نكتبها، فمما لا شك فيه أنّه مرآة لمجتمعنا العالمي ووجداننا الافتراضي على الشبكة العنكبوتية. ولعل أكثر طريقة يمكن أن نستفيد فيها من الذكاء الاصطناعي هو أن نستعمله لنفهم أنفسنا ونعرفها.

ملاك غندور

اسم مستعار لباحث جامعي في مجال الذكاء الاصطناعي والعلوم العصبية.

×