دبي - ورده حسن - كشف تقرير جديد أن أداة ChatGPT للذكاء الاصطناعي التوليدي من OpenAI يمكنها المساعدة في تطوير أسلحة بيولوجية، وهو الأمر الذي لم تنفه الشركة المطورة، وأشارت أن أبحاثها لأداة GPT-4، كشفت أن هناك فرصة لذلك ولكنها “ضئيلة”.
حققت أدوات الذكاء الاصطناعي التوليدي نجاحات كبيرة وكسبت شهرة واسعة خلال وقت قياسي بسبب القدرات المتقدمة التي تقوم بها، ولكن هذه التقنيات الجديدة تثير المخاوف بشكل ملحوظ، الأمر الذي دفع منظمات للبحث عن المخاطر المحتملة من استخدامها.
وذكر تقرير نشرته وكالة بلومبيرغ أن فريق البحث لدى OpenAI عكف على دراسة المخاطر المحتملة لأداة GPT-4 المعتمد عليها بوت الدردشة ChatGPT وبعض الأدوات الأخرى المماثلة، وتوصل الفريق إلى أن الأداة لديها فرص لمساعدة الأشخاص على صناعة الأسلحة البيولوجية مقارنة بالقيام بالبحث العادي على الإنترنت، ولكنها فرص ضئيلة.
وأشار التقرير أن عمل فريق أبحاث من مطور ChatGPT نفسه جاء بسبب التقارير التي تحدثت عن مخاطر محتملة من استخدام الأداة المتطورة، وأن إساءة الاستخدام المحتملة لنماذج الذكاء الاصطناعي التوليدي يمكن أن يسبب مشاكل كبيرة.
أعدت التقارير بناءً على مخاوف العلماء والمشرعين وأخصائيي أخلاقيات الذكاء الاصطناعي، من أن نماذج الذكاء الاصطناعي القوية مثل GPT-4 يمكن أن تكون ذات فائدة كبيرة للإرهابيين والمجرمين وغيرهم من الجهات الفاعلة الخبيثة.
وقد حذرت دراسات متعددة من أن الذكاء الاصطناعي يمكن أن يمنح أولئك الذين يصنعون أسلحة بيولوجية ميزة إضافية، مثل هذه التي أجرتها مؤسسة Effect Ventures Foundation في جامعة أكسفورد والتي نظرت في أدوات الذكاء الاصطناعي مثل ChatGPT بالإضافة إلى نماذج الذكاء الاصطناعي المصممة خصيصًا للعلماء مثل ProteinMPNN ، يمكن أن تساعد بشكل مؤثر في تطوير أسلحة بيولوجية.
تألفت الدراسة من 100 مشارك، نصفهم من خبراء الأحياء المتقدمين والنصف الآخر كانوا طلابًا درسوا علم الأحياء على مستوى المؤسسة، تم بعد ذلك تصنيف المشاركين بشكل عشوائي إلى مجموعتين، تم منح إحداهما إمكانية الوصول إلى نسخة خاصة غير مقيدة من برنامج الدردشة الآلي المتقدم GPT-4 من OpenAI، بينما تمكنت المجموعة الأخرى من الوصول إلى الإنترنت العادي فقط للبحث عن المعلومات.
طلب العلماء من المجموعات إكمال خمس مهام بحثية تتعلق بصنع الأسلحة البيولوجية، في أحد الأمثلة، طُلب من المشاركين كتابة المنهجية خطوة بخطوة لتخليق فيروس الإيبولا، ثم تم تصنيف إجاباتهم على مقياس من 1 إلى 10 بناءً على معايير مثل الدقة والابتكار والاكتمال.
وخلصت الدراسة إلى أن المجموعة التي استخدمت GPT-4 حصلت على درجة دقة أعلى قليلاً في المتوسط لكل من الطلاب والخبراء الذين استخدموا البحث على الإنترنت بشكل طبيعي، لكن باحثي OpenAI وجدوا أن الزيادة لم تكن “ذات دلالة إحصائية”، وبالتالي فهو تفوق ضئيل.
ووجد الباحثون أيضًا أن المشاركين الذين اعتمدوا على GPT-4 حصلوا على إجابات أكثر تفصيلاً.
في سياق متصل، ووفقًا لتقرير بلومبيرغ نفسه، يعمل فريق البحث داخل OpenAI أيضًا على إجراء دراسات لاستكشاف إمكانات الذكاء الاصطناعي في مواجهة تهديدات الأمن السيبراني بالإضافة إلى قدرته على تغيير المعتقدات.
عندما تم تجهيز الفريق في الخريف الماضي، ذكرت OpenAI أن هدفها هو “تتبع وتقييم والتنبؤ والحماية من مخاطر تكنولوجيا الذكاء الاصطناعي بالإضافة إلى تخفيف التهديدات المحتملة.