دبي - ورده حسن - أعلنت شركة جوجل رسميًا عن تحالفها مع شركات تقنية كبرى لديها أعمال أو تجهز لنماذج ذكاء اصطناعي متقدمة، من أجل تطوير أداة للحد من المخاطر المحتملة لاستخدام هذا النوع المتقدم من التكنولوجيا، والذي أثار القلق في عدة جوانب منذ بداية انتشاره.
شهدت السنتان الماضيتان تقدمًا تكنولوجيًا هائلًا، لكن هذا التقدم تضاءل أمام انتشار الذكاء الاصطناعي على نطاق واسع، كان ChatGPT من OpenAI هو المحفز لسباق التسلح بالذكاء الاصطناعي، حيث اضطرت عمالقة التكنولوجيا مثل جوجل، مايكروسوفت، أبل، ميتا، سامسونج، والعديد من الشركات الأخرى للحاق بالركب.
وخلال مشاركتها في منتدى أسبن للأمن السيبراني، كشفت جوجل لأول مرة عن تحالف جديد يضم تقريبًا جميع الشركات الكبرى والرائدة في تطوير تقنيات الذكاء الاصطناعي، لتشكيل تحالف “الذكاء الاصطناعي الآمن” المعروف اختصارًا باسم (CoSAI).
صرحت جوجل بأنها كانت تعمل على هذا التعاون على مدار العام الماضي بهدف “تعزيز إجراءات الأمان الشاملة” لمواجهة المخاطر الفريدة التي تأتي مع التقدم في تقنيات الذكاء الاصطناعي، سواء كانت قصيرة الأجل (تلك التي تنشأ في الوقت الفعلي) أو طويلة الأجل (تلك التي تلوح في الأفق).
تتضمن قائمة الأعضاء المؤسسين لتحالف CoSAI مجموعة من الشركات الكبرى مثل أمازون، أنتروبيك، تشينجارد، سيسكو، كوهير، جين لاب، آي بي إم، إنتل، مايكروسوفت، إنفيديا، أوبن إيه آي، باي بال، وويز.
قامت جوجل بتفصيل التحالف وخططه في منشور على مدونتها، وهناك أيضًا موقع مخصص لـ CoSAI.
في منشورها على المدونة، تحدثت جوجل عن مجموعة من الأمور التقنية غير الواضحة، مثل تركيز CoSAI على “أمن سلسلة التوريد للبرمجيات لنظم الذكاء الاصطناعي”، وهو ما سيضمن بشكل أساسي أن يتم بناء كود الذكاء الاصطناعي باستخدام برمجيات آمنة وموثوقة، وتتبع كيفية بناء برمجيات الذكاء الاصطناعي، وتحديد المشكلات في وقت مبكر.
يهدف التحالف أيضًا إلى إنشاء إجراءات وقائية أو “إطار عمل للحد من المخاطر” بأدوات لتحديد ومكافحة تهديدات أمان الذكاء الاصطناعي عند ظهورها.
“ستعمل هذه المجموعة على تطوير إطار عمل للدفاع لمساعدة المهندسين المختصين بمواجهة المخاطر الأمنية على تحديد التقنيات المستخدمة في التهديدات الأمنية، وان كانت باستخدام أي من نماذج الذكاء الاصطناعي”.
أخيرًا، يعتزم CoSAI إنشاء كتاب قواعد يحدد كيفية تطوير الذكاء الاصطناعي وضمان استخدامه الآمن، مع قوائم مراجعة وبطاقات تقييم لتوجيه الممارسين في تقييمات الاستعداد.
تبدو جهود CoSAI مركزة بشكل أساسي على الجانب الأمني للذكاء الاصطناعي. وعلى الرغم من أن هذه المبادرة جديرة بالثناء وهي مطلوبة في الوقت الراهن.
يعتبر التطور السريع للذكاء الاصطناعي سببًا للقلق، ففي العام الماضي، قام العديد من الشخصيات العامة والباحثين في مجال الذكاء الاصطناعي بكتابة رسالة مفتوحة لمختبرات الذكاء الاصطناعي حول العالم لوقف تطوير أنظمة الذكاء الاصطناعي واسعة النطاق، مشيرين إلى “مخاطر كبيرة على المجتمع والإنسانية.” لكن هذه الدعوة لم تحقق أي نتائج تذكر.