أعرفك بـ GPT-3: يمكنه أن يُبرمج.. يدّون.. ويتجادل أيضًا!

GPT-3

خلال الصيف الفائت، كشف مختبر OpenAI للذكاء الصُنعي في سان فرانسيسكو عن تقنية كانت قيد الإعداد لعدة أشهر. قضت هذه التقنية، والتي تُدعى GPT-3، تلك الأشهر في تعلم مداخل ومخارج اللغة الطبيعية من خلال تحليل آلاف الكتب الرقمية، إضافة لموسوعة ويكيبيديا بطولها وعرضها، وما يقرب من تريليون كلمة منشورة على المدونات ووسائل التواصل الاجتماعي والمحتوى على الويب بشكلٍ عام.

كان مكاي ريجلي “Mckay Wrigley”، مبرمج كمبيوتر ذو الـ 23 عامًا من مدينة سولت ليك، أحد القلائل الذين دُعوا لاختبار التقنية، والتي تستخدم كل ما تعلمته من (بحر النصوص الرقمية الشاسع) لتوليد لغة جديدة بمفردها.

تساءل السيد ريجلي عما إذا كان بإمكانه تقليد الشخصيات العامة، والكتابة مثلهم، وربما حتى الدردشة مثلهم.

تضمنت إحدى تجاربه عالم النفس ​​سكوت باري كوفمان “Scott Barry Kaufman”. زُوّد النظام -التي بُنيت حوله التقنية- باسم السيد كوفمان وبموضوع للنقاش: الإبداع.

وهكذا، عندما سُئل “كيف نصبح أكثر إبداعًا؟” ردّ GPT-3 على الفور:

أعتقد أن التعبير الإبداعي هو حصيلة طبيعية للنمو في عالم متباين. كلما كان العالم أكثر تنوعًا، تعرّفت على أشخاص مختلفين وفرص مختلفة وأماكن مختلفة وتحديات مختلفة. وبالتالي زادت احتمالية قدرتك على تجميع النقاط معًا لتشكيل شيء جديد.

ومن عدة نواحٍ، أعتقد أنه إن شئت أن تكون مبدعًا، فعليك أن تسعى. إذا أردت أن تكون كاتبًا، عليك أن تكتب، موسيقيًا؟ عليك تعزف موسيقى، فنانًا كوميديًا؟ عليك اختلاق نِكات​​، فكلما أنتجت، زادت احتمالية عثورك على بعض الأشياء المثيرة للاهتمام.

لاحقًا، عندما نشر السيد ريجلي الاقتباس السابق على تويتر، لفت أحدهم نظر سكوت باري كوفمان الحقيقي الذي وقف مذهولًا ثم ردّ بتغريدة: “يبدو بالتأكيد شيئًا أود قوله”، مضيفًا في وقت لاحق، “يا لدقّة الذكاء الصنعي.. المجنون!”

في الأسابيع التالية لظهورها، ولّد GPT-3 عشرات التجارب الأخرى التي تثير الدهشة بنفس الطريقة تقريبًا. فهو يُنتج تغريدات، ويقرض الشعر، ويلخص رسائل البريد الإلكتروني، ويجيب على أسئلة المسابقات، ويترجم، بل ويبرمج! وكل ذلك مع القليل من التحفيز.

أخذت بعض هذه المهارات بألباب الخبراء على حين غرة.

بالنسبة للعديد من باحثي الذكاء الصُنعي، تعتبر هذه خطوة -غير متوقعة- نحو آلات يمكنها فهم تقلبات اللغة البشرية (وربما حتى التعامل مع المهارات البشرية الأخرى).

قالت ميلاني ميتشل “Melanie Mitchell”، الباحثة في الذكاء الصُنعي من معهد سانتا في: “إنه أمر مدهش بالنسبة لي، وللكثير من الناس.. يصعب معرفة حدود ما يفعله هذا الشيء بالضبط!”

هل تقنية GPT-3 خالية من العيوب؟

في الواقع، تقنية GPT-3 بعيدة عن أن تكون بلا عيوب. غالبًا ما تستخدم لغة متحيزة ومسمومة. على سبيل المثال، إن طلبت 10 فقرات بأسلوب سكوت باري كوفمان، فقد يمنحك ذلك خمس فقرات مقنعة وخمس عكس ذلك.

عندما تحدث السيد كوفمان بالفعل مع “قرينه” الصُنعي، لم يعد معجبًا به كما كان في البداية:

?‍? سكوت باري كوفمان: ما الخيال؟

? القرين الصُنعي: ما الخيال؟ أنت مَن عليه أن يخبرني!

?‍? سكوت باري كوفمان: لا بدّ أنك تعرف!

? القرين الصُنعي: كلا، أنت من عليه أن يعرف. فأنت من يعرف ماهية الخيال. برأيك ما هو؟

حتى وإن بدت المحادثة السابقة كما لو كانت حقيقية. لكنها أظهرت حقيقة ما يمكن أن يفعله النظام بنفسه، دون الحاجة إلى ترميز إضافي أو ضبط دقيق.

GPT-3 هو تتويج لعدة سنوات من العمل داخل مختبرات الذكاء الصُنعي الرائدة في العالم، بما في ذلك OpenAI (منظمة مستقلة مدعومة بمليار دولار أمريكي من مايكروسوفت)، بالإضافة إلى مختبرات تابعة لشركتيّ غوغل وفيسبوك.

يمكن أن تساعد هذه الأنظمة -المعروفة باسم نماذج اللغة العالمية- في تشغيل مجموعة واسعة من الأدوات، مثل الخدمات التي تلخص تلقائيًا المقالات الإخبارية و روبوتات المحادثة “chatbot”. وحتى الآن، كان تأثيرها على تكنولوجيا العالم الحقيقي صغيرًا.

لكن GPT-3 -التي تعلمت من مجموعة أكبر بكثير من النصوص الإلكترونية مقارنة بالأنظمة السابقة- تفتح الآفاق أمام مجموعة واسعة من الإمكانات الجديدة، مثل البرامج التي يمكنها تسريع تطوير تطبيقات الهواتف الذكية الجديدة، أو روبوتات الدردشة التي يمكنها التفوق في التحدث “بطريقة إنسانية” على التقنيات السابقة.

فيما يستطلع مصممو البرمجيات ورجال الأعمال والنقاد والفنانون هذا النظام، تثير كل تجربة جديدة نقاشًا محتدمًا -أصلًا- حول مدى تأثير هذا النوع من التكنولوجيا في نهاية المطاف. بينما يقول البعض إنها قد تكون طريقًا نحو آلات ذكية (بكل ما تحمله كلمة “ذكاء” من معنى)، يرى البعض الآخر بأن هذه التجارب، رغم كونها رائعة بما يفوق الوصف، هي أيضًا مُضلِلة.

قال مارك ريدل “Mark Riedl”، الأستاذ والباحث في معهد جورجيا للتكنولوجيا:

“التقنية بارعة حقًا، وفصيحة للغاية، وماهرة جدًا في إنتاج نص يبدو منطقيًا. لكنها تقف عاجزة أمام التفكير المُسبق. بحيث لا تخطط لما ستقوله.
باختصار، لا أراها تمتلك هدفًا فعليًا”.

“جودة طارئة”

يعمل جوردن سِنغر “Jordan Singer” كمصمم منتجات في Square، وهي شركة دفع عبر الهاتف الذكي في وادي السيليكون. يساهم (سِنغر) في تصميم تطبيقات الهواتف الذكية للشركة، وتصميم الرسومات والقوائم والأزرار والأدوات الأخرى التي تحدد شكل التطبيق وأسلوبه.

وهكذا، عندما سمع عن GPT-3، تساءل عما إذا كان هذا النظام الآلي يمكنه القيام بعمله.

زوّد النظام بوصف بسيط لتطبيق هاتف ذكي، والأكواد المطلوبة لبناء التطبيق. كان الوصف بلغة إنجليزية بسيطة. وبُني الكود باستخدام “فيجما-Figma“: أداة تصميم متخصصة يستخدمها المحترفون عادةً.
كرر العملية عدة مرات، حيث غذّى النظام بعدّة أوصاف إلى جانب كود فيجما المطابق. وعندما انتهى، استطاع نظام GPT-3 كتابة الكود من تلقاء نفسه. لم يكن الكود مثاليًا في بعض الأحيان. لكن عادةً، إذا أجرى السيد سِنغر تعديل أو اثنين فقط، فإنه يعمل كما يريد. يصفه قائلًا: “ليست تقنية مثالية على الإطلاق.. لكنها قريبة جدًا جدًا.”

حتى مصممي GPT-3 تفاجؤوا!

كان هذا السلوك جديدًا تمامًا، وقد فاجأ حتى مصممي GPT-3!

لم يُصمم GPT-3 للبرمجة، تمامًا كما لم يُبنى للكتابة مثل السيد كوفمان أو إنشاء تغريدات أو الترجمة. وإنما بُني لفعل شيء واحد فقط: توقع الكلمة التالية من سلسلة كلمات.

GPT-3 هو ما يسميه باحثو الذكاء الاصطناعي شبكة عصبونية اصطناعية، هي ذات التقنية التي تحدد الوجوه في الصور التي تنشرها على فيسبوك وتتعرف على أوامرك التي تُلقيها في جهاز الآيفون خاصتك.

تتعلم الشبكة العصبونية الاصطناعية هذه المهارات من خلال تحديد الأنماط لكميات هائلة من البيانات الرقمية. فمن خلال تحليل الآلاف من صور القطط، على سبيل المثال، يمكنها أن تتعلم التعرف على قطة.

منذ حوالي 4 سنوات، بدأ الباحثون في غوغل وأهم المختبرات -مثل OpenAI- تصميم الشبكات العصبونية الاصطناعية التي تعلمت من كميات هائلة من النثر، بما في ذلك الكتب غير المنشورة ومقالات ويكيبيديا بالآلاف.
يمكن تطبيق نماذج اللغة العالمية هذه ليس فقط على مهمة واحدة، مثل الترجمة، ولكن على العديد من المهام.

حلل GPT-3 النثر الرقمي على نطاق غير مسبوق، حيث بحث -لشهور- عن أنماط بكميات هائلة من النصوص المنشورة على الإنترنت. بهذه الطريقة، تعلم النظام التنبؤ بالكلمة التالية ضمن تسلسل. إذا كتبت بضع كلمات في GPT-3، فيستكمل العمل ليدعم أفكارك بفقرات كاملة.

ولكن في سبيل اكتساب هذه المهارة المحددة، تعلم النظام أكثر من ذلك بكثير.
فخلال أشهر التدريب، حدد GPT-3 أكثر من 175 مليار متغير -تمثيلات رياضية للأنماط- في بحر الكتب ومقالات ويكيبيديا ونصوص أخرى عبر الإنترنت. تشكّل هذه الأنماط خريطة للغة البشرية: وصف رياضي للطريقة التي نجمع بها الأحرف معًا، سواء كنا ندّون أو نبرمج. باستخدام هذه الخريطة، يمكن لـ GPT-3 أداء جميع أنواع المهام التي لم يُصمم للقيام بها.

قبل أن تطلب من GPT-3 إنشاء نص جديد، يمكنك توجيهه نحو أنماط معينة ربما تكون قد تعلمتها أثناء التدريب، مما يؤدي إلى تهيئته لمهام محددة. يمكنك تزويده بأوصاف لتطبيقات الهواتف الذكية ورمز فيغما المطابق. أو يمكنك أن تظهر لها ركامًا من الحوار البشري. بعد ذلك، عندما تبدأ في الكتابة، سيكمل التسلسل بطريقة أكثر تحديدًا. وإذا ابتدرته بحوار، على سبيل المثال، فسيبدأ في الدردشة معك!

والآن، نصل للسؤال الأهم:

هل تقنية GPT-3 آمنة بالفعل؟

الإجابة في التدوينة القادمة بإذن الله?


اقرأ أيضًا:

أعرفك بـ GPT-3: يمكنه أن يُبرمج.. يدّون.. ويتجادل أيضًا!

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

هذا الموقع يستخدم Akismet للحدّ من التعليقات المزعجة والغير مرغوبة. تعرّف على كيفية معالجة بيانات تعليقك.

تمرير للأعلى