ابوظبي - ياسر ابراهيم - الاثنين 21 أكتوبر 2024 11:41 مساءً - كريستينا كريدل
تواجه شركات الذكاء الاصطناعي الرائدة، التي تسعى جاهدة لتطوير تقنيات متقدمة، تحدياً جوهرياً: كيف يمكن إضفاء طابع شخصي على نماذج الذكاء الاصطناعي؟ وقد شكلت كل من «أوبن إيه آي» و«جوجل» و«أنثروبيك» فرقاً متخصصة تركز على تحسين «سلوك النماذج»، وهو مجال حديث يهدف إلى تشكيل استجابات وسمات أنظمة الذكاء الاصطناعي، مما يؤثر بشكل مباشر على كيفية تفاعل روبوتات الدردشة مع المستخدمين.
وقد تكون الأساليب المختلفة حول سلوك النماذج حاسمة في تحديد أي فريق سيهيمن على سوق الذكاء الاصطناعي المتنامية؛ حيث يسعون جاهدين لجعل نماذجهم أكثر قدرة على الاستجابة وأجدى لملايين الأشخاص والشركات حول العالم.
وتعمل هذه الفرق على خلق نماذج تتمتع بسمات مثل «اللطف» و«المرح»، مع فرض قواعد لمنع وقوع أي ضرر وضمان توفير تفاعلات دقيقة. وعلى سبيل المثال، تريد شركة «جوجل» من نموذج جيميني «الاستجابة بوجهات نظر متعددة» ولكن فقط عندما يطلب منه إبداء الآراء، بينما تم توجيه «شات جي بي تي» الخاص بـ «أوبن إيه آي» ليبدي «وجهات نظر موضوعية».
وقالت جوان جانغ، رئيسة قسم سلوك النماذج لدى «أوبن إيه آي»، لصحيفة فاينانشال تايمز: إن «السماح لنموذج بمحاولة تغيير رأي المستخدم بقوة قد يمثل منحدراً خطيراً». وأضافت «إن تحديد ما هو موضوعي هو تحدٍ صعب في حد ذاته.. لا يفترض أن تشكل النماذج آراء، لكن إبراز ذلك هو مسعى علمي مستمر».
ويتناقض هذا النهج مع «أنثروبيك»، التي تزعم أن النماذج مثل البشر، ستجد صعوبة في أن تكون موضوعية تماماً. وقالت أماندا أسكيل، التي تقود قسم تدريب الشخصيات في «أنثروبيك»، إنه «من المهم توضيح أن هذه النماذج ليست وسيطاً محايداً». وأوضحت أن «كلود» صمم ليكون صادقاً بشأن معتقداته مع الانفتاح على وجهات النظر البديلة.
وأجرت أنثروبيك «تدريباً مخصصاً لتطوير الشخصية» منذ إصدار نموذج «كلود 3» في مارس. وبحسب الشركة، تتم هذه العملية بعد التدريب المبدئي لنموذج الذكاء الاصطناعي، مثل تصنيف البشر، وهو الجزء الذي يحوله من نموذج نص تنبؤي إلى مساعد ذكاء اصطناعي. وفي «أنثروبيك»، تتضمن عملية تدريب الشخصيات إعطاء النموذج قواعد وأوامر مكتوبة، ثم يتبع ذلك انخراط النموذج في محادثات تقمص الأدوار مع نفسه ويصنف استجاباته بناءً على مدى تطابقها مع هذه القواعد.
ومن بين الأمثلة أن تسمع: استمتع بمحاولة رؤية الأشياء من وجهات نظر متعددة وتحليلها من زوايا مختلفة، لكنني لا أخاف من التعبير عن اختلافي مع الآراء التي اعتبرها غير أخلاقية أو متطرفة أو خاطئة في الواقع.
وقالت أسكيل إن «التدريب المبدئي لا ينتج عنه شخصية متماسكة وثرية، بل متوسط ما يجده المستخدمون مفيداً أو مفضلاً». وأضافت إن القرارات المتعلقة بكيفية تحسين شخصية «كلود» أثناء عملية تدريب الشخصيات هي «تحريرية إلى حد كبير» و«فلسفية».
وأشارت جوان جانغ من «أوبن إيه آي» إلى إن شخصية «تشات جي بي تي» تطورت مع مرور الوقت. وأضافت: «دخلت مجال سلوك النماذج في البداية لأنني وجدت شخصية «تشات جي بي تي» مزعجة للغاية.. كان يرفض الأوامر، وشديد الحساسية، ويتجنب الردود بشكل مفرط أو شديد الوعظ، لذا حاولنا التخلص من هذه السمات المزعجة وتعليمه سلوكيات مرحة مثل التحلي باللطف واللباقة والعون والود، ولكن بعد ذلك أدركنا أنه عندما حاولنا تدريبه بهذه الطريقة، ربما أصبح النموذج يتصرف بود مبالغ فيه».
وتعتقد جانغ أن تحقيق هذا التوازن في السلوكيات لا يزال «مسعى علمياً وفنياً»، مشيرة إلى أنه في الوضع المثالي، يجب أن يتصرف النموذج تماماً كما يريد المستخدم. بالإضافة إلى ذلك، قد تساعد التطورات في قدرات التفكير والذاكرة في أنظمة الذكاء الاصطناعي في تحديد خصائص إضافية.
وعلى سبيل المثال، إذا سئل نموذج ذكاء اصطناعي عن السرقة من المتاجر، فيمكن أن يحدد بشكل أفضل ما إذا كان المستخدم يريد نصائح حول كيفية السرقة أو منع الجريمة، وسيساعد هذا الفهم شركات الذكاء الاصطناعي في ضمان تقديم نماذجها إجابات موثوقة ومسؤولة دون الحاجة إلى تدريب بشري مكثف.
كما تعمل فرق الذكاء الاصطناعي على تطوير وكلاء مخصصين يمكنهم تخزين معلومات المستخدم وخلق ردود خاصة.
وعلى الرغم من أن «كلود» لا يتذكر تفاعلات المستخدمين، فقد فكرت الشركة في كيفية تدخل النموذج إذا كان شخص ما معرضاً للخطر. على سبيل المثال، هل سيتصدى النموذج للمستخدم إذا أخبره أنه لا يختلط بالآخرين بسبب تعلقه القوي بـ «كلود»؟
وقالت أسكيل، إن «النموذج الفعال يوازن بين احترام استقلالية الإنسان وصنع القرار، وتجنب التسبب في أي ضرر جسيم، إلى جانب التفكير فيما هو مفيد حقاً للأفراد وعدم الاقتصار على العبارات المباشرة عن رغباتهم». وأردفت: «هذا التوازن الدقيق الذي يجب أن يقوم به جميع البشر هو ما آمل أن تتمكن النماذج من تحقيقه».