Business

شركات الذكاء الاصطناعي تقدم وعود أمان جديدة في قمة سيول، والدول تتفق على تنسيق العمل في مجال المخاطر

سيول، كوريا الجنوبية (AP) - قامت شركات الذكاء الاصطناعي الرائدة بتقديم وعد جديد في قمة صغيرة يوم الثلاثاء بتطوير الذكاء الاصطناعي بشكل آمن، بينما اتفق قادة العالم على بناء شبكة من المعاهد المدعومة عامة للتقدم في البحوث والاختبارات التكنولوجية.

كانت غوغل، ميتا وOpenAI من بين الشركات التي قدمت الالتزامات بالسلامة بشكل طوعي في قمة سيول AI، بما في ذلك فصل النظام إذا لم يتمكنوا من كبح أكبر المخاطر.

تعد الاجتماع لمدة يومين هو تكملة لقمة AI Safety التي جرت في نوفمبر في Bletchley Park في المملكة المتحدة، ويأتي في ظل جهود مكثفة من قبل الحكومات والهيئات العالمية لتصميم حواجز للتكنولوجيا خشية من المخاطر المحتملة التي تشكلها على الحياة اليومية وعلى البشرية.

سيقوم قادة من 10 دول والاتحاد الأوروبي بـ "وضع فهم مشترك لسلامة الذكاء الاصطناعي وتنسيق جهودهم في البحوث حول الذكاء الاصطناعي"، وفقًا لبيان من الحكومة البريطانية، التي شاركت في تنظيم الحدث. وسوف تشمل شبكة المعاهد الأمان تلك التي أنشأتها بالفعل المملكة المتحدة والولايات المتحدة واليابان وسنغافورة منذ اجتماع Bletchley، كما جاء في البيان.

وقال الأمين العام للأمم المتحدة أنطونيو غوتيريش في الجلسة الافتتاحية إنه بعد سبعة أشهر من اجتماع Bletchley، "نرى تطورات تكنولوجية جديدة معتمة ومخاطر جديدة تهدد الحياة - من تشويه الحقائق إلى المراقبة الشاملة إلى مستقبل الأسلحة القتالية المستقلة القاتلة".

قال الأمين العام للأمم المتحدة في رسالة فيديو أنه يجب وجود حواجز عالمية وحوار منتظم بشأن الذكاء الاصطناعي. وأضاف "لا يمكن أن ننام ونتجول في مستقبل مأساوي حيث يتحكم القليل من الناس في قوة الذكاء الاصطناعي - أو الأسوأ، من خلال خوارزميات خارجة عن فهم البشر".

وشملت الشركات الـ16 التي وقعت على التزامات السلامة أيضًا أمازون ومايكروسوفت وسامسونج وإنتل وشركة AI Mistral الفرنسية وشركة زيبو الصينية و G42 من الإمارات العربية المتحدة. وعاهدوا على ضمان سلامة نماذج الذكاء الاصطناعي الأكثر تقدمًا لديهم بوعود بالحوكمة المسؤولة والشفافية العامة.

ليست هذه المرة الأولى التي تقدم فيها شركات الذكاء الاصطناعي التزامات بالسلامة تبدو طموحة ولكن غير ملزمة. كانت أمازون وغوغل وميتا ومايكروسوفت من بين مجموعة وقعت العام الماضي على ضمانات طوعية وساطة من البيت الأبيض لضمان سلامة منتجاتهم قبل طرحها.

تأتي قمة سيول وشركات ترتقي بنماذجها الذكاء الاصطناعي الأحدث.

يتضمن التعهد بالسلامة نشر أطر توضح كيفية قياس مخاطر نماذجهم. في حالات قصوى حيث تكون المخاطر خطيرة و"غير مقبولة"، يجب على شركات الذكاء الاصطناعي ضرب المفتاح الرئيسي ووقف تطوير أنظمتهم إذا لم يتمكنوا من التخفيف من المخاطر.

منذ اجتماع المملكة المتحدة العام الماضي، قد ركزت صناعة الذكاء الاصطناعي "على نحو متزايد على القلق الأكثر إلحاحًا، بما في ذلك التضليل وتشويه الحقائق، وأمن البيانات، والانحياز والحفاظ على البشر في الحلقة"، وفقًا لأيدن جوميز الرئيس التنفيذي لـ Cohere، أحد الشركات الناشرة للعهد. "من الضروري أن نستمر في النظر في كل المخاطر المحتملة، مع إعطاء الأولوية لجهودنا في تلك التي من المحتمل أن تخلق مشاكل إذا لم تعالج بشكل صحيح".

يقوم الحكومات في جميع أنحاء العالم بالتهرب من وضع تشريعات للذكاء الاصطناعي حتى وهو يحقق تقدمًا سريعًا ومتوجهًا نحو تحويل العديد من جوانب الحياة اليومية، من التعليم ومكان العمل إلى حقوق التأليف والنشر والخصوصية. توجد مخاوف من أن التقدم في الذكاء الاصطناعي قد يقضي على الوظائف، ينشر تشويه الحقائق أو يستخدم لإنشاء أسلحة حيوية جديدة.

تعد الاجتماع لهذا الأسبوع واحدًا من العديد من الجهود المبذولة في حكم الذكاء الاصطناعي. فقد وافقت الجمعية العامة للأمم المتحدة على أول قرار لها بشأن الاستخدام الآمن لأنظمة الذكاء الاصطناعي، بينما عقدت الولايات المتحدة والصين حديثًا لأول مرة محادثات عالية المستوى حول الذكاء الاصطناعي والقانون الذكاء الاصطناعي العالمي الأول للاتحاد الأوروبي معروض للتنفيذ في وقت لاحق هذا العام.

__

ساهم Chan في هذا التقرير من لندن. ساهمت الصحفية التابعة لوكالة الصحافة Edith M. Lederer من الأمم المتحدة.

Related Articles

Back to top button Back to top button