Tech

مجلس تشريع كاليفورنيا يمر فقط بمشروع القانون SB 1047 للذكاء الاصطناعي ؛ إليك لماذا يأمل البعض أن يمتنع الحاكم عن توقيعه

تمرير لجنة التخصيصات في كاليفورنيا SB 1047 بتعديلات كبيرة تغير القانون يوم الخميس ، 15 أغسطس. يمكنك قراءة المزيد عنها هنا. خارج الأفلام الخيال العلمي ، ليس هناك سابقة لأنظمة الذكاء الاصطناعي قتل الناس أو استخدامها في هجمات سيبرانية ضخمة. ومع ذلك ، يرغب بعض من القوانين في تنفيذ تدابير احترازية قبل أن يجعل المؤثرين السيئين تلك المستقبل المزعم الكارثي حقيقة. مشروع قانون كاليفورنيا ، المعروف باسم SB 1047 ، يحاول إيقاف الكوارث الحقيقية التي تسببها أنظمة الذكاء الاصطناعي قبل أن تحدث. مرت الفاتورة في مجلس الشيوخ في الولاية في أغسطس ، والآن في انتظار موافقة أو رفض من حاكم كاليفورنيا جافين نيوسوم.\n\n بالرغم من أن هذا يبدو كهدف يمكننا الاتفاق عليه جميعًا ، إلا أن SB 1047 استدعى غضب اللاعبين في وادي السيليكون الكبيرة والصغيرة ، بما في ذلك رجال رأس المال المغامر ، وجماعات تجارية كبيرة لشركات التكنولوجيا ، والباحثين ومؤسسي الشركات الناشئة. هنا هو السبب.\n\n ماذا سيفعل SB 1047؟\n\n يحاول SB 1047 منع أنماط الذكاء الاصطناعي الكبيرة من استخدام لتسبب "أضرارًا حرجة" ضد البشرية.\n\n تعطي الفاتورة أمثلة على "الأضرار الحرجة" كما هو استخدام مفرط لاحدى الأطراف لنموذج الذكاء الاصطناعي لإنشاء سلاح يسفر عن قتلى بالجملة ، أو توجيهه لتنظيم هجوم سيبراني يتسبب في أكثر من 500 مليون دولار من الأضرار (للمقارنة ، يُقدر أن تكلفة انقطاع خدمة CrowdStrike قد أسفرت عن أضرار تتجاوز 5 مليارات دولار). تجعل الفاتورة المطورين - أي الشركات التي تطور النماذج - مسؤولين عن تنفيذ بروتوكولات أمان كافية لمنع نتائج من هذا القبيل.\n\n ما هي النماذج والشركات المعنية بهذه القواعد؟\n\n ستنطبق قواعد SB 1047 فقط على أكبر نماذج الذكاء الاصطناعي في العالم: تلك التي تكلف على الأقل 100 مليون دولار وتستخدم 10 ^ 26 FLOPS (عمليات نقطة عائمة ، وهو وسيلة لقياس الحساب) أثناء التدريب. هذا كمية كبيرة من الحساب ، على الرغم من أن الرئيس التنفيذي لـ OpenAI سام ألتمان قال إن GPT-4 تكلف حوالي هذا المبلغ للتدريب. يمكن رفع هذه الحدود حسب الحاجة.\n\n معظم الشركات اليوم لديها منتجات ذكاء اصطناعي عامة ضخمة بما في ذلك تلك الأمتثلة لهذه المتطلبات ، ولكن يرجح أن شركات التكنولوجيا العملاقة مثل OpenAI و Google و Microsoft ستفعل ذلك قريبًا جدًا. أصبحت النماذج الذكائية الاصطناعية ، ببساطة ، محركات إحصائية ضخمة تحدد وتتوقع الأنماط في البيانات - أكثر دقة مع حجمها الذي يزداد تواليًا ، وهو اتجاه يتوقع الكثيرون استمراره. قال مارك زوكربرج مؤخرًا إن الجيل التالي من Meta’s Llama سيتطلب 10 مرات أكثر من الحساب ، مما سيجعله تحت سلطة SB 1047.\n\n عندما يتعلق الأمر بنماذج المصدر المفتوح ومشتقاتها ، حددت الفاتورة أن المطور الأصلي مسؤول ما لم ينفق مطور آخر 10 ملايين دولار لإنشاء نسخة مشتقة من النموذج الأصلي.\n\n تتطلب الفاتورة أيضًا بروتوكولًا أمانيًا لمنع سوء استخدام منتجات الذكاء الاصطناعي المعنية ، بما في ذلك زر "إيقاف الطوارئ" الذي يوقف عمل النموذج الذكي بأكمله. يجب أيضًا على المطورين إنشاء إجراءات اختبار تعالج المخاطر التي يتعرض لها نماذج الذكاء الاصطناعي ، ويجب عليهم توظيف مدققين من جهات خارجية سنويًا لتقييم ممارسات سلامة الذكاء الاصطناعي الخاصة بهم.\n\n يجب أن يكون النتيجة "ضمان معقول" بأن اتباع هذه البروتوكولات سيمنع أضرارًا حرجة - وليس التأكيد المطلق ، الذي من المستحيل بالطبع تقديمه.\n\n من سيفرضها ، وكيف؟\n\n وكالة كاليفورنيا الجديدة ، مجلس نماذج الحدود ، ستشرف على القواعد. يجب على كل نموذج ذكاء اصطناعي عام جديد يفي بمعايير SB 1047 أن يحصل على شهادة فردية مع نسخة كتابية من بروتوكول السلامة الخاص به.\n\n سيكون مجلس نماذج الحدود ، سيديره تسعة أشخاص ، بما في ذلك ممثلون من صناعة الذكاء الصناعي ، والمجتمع مفتوح المصدر والأكاديميا ، الذين يوكلونهم حاكم كاليفورنيا والمشرعون بالتشريع. سيقدم المجلس توجيهات للنائب العام في كاليفورنيا بشأن انتهاكات محتملة لقانون SB 1047 ، وسيصدر إرشادات لمطوري نماذج الذكاء الاصطناعي بشأن ممارسات السلامة.\n\n يجب على مدير تكنولوجيا المعلومات في الشركة تقديم شهادة سنوية للمجلس تقييم خطورة نموذج الذكاء الاصطناعي الخاص بها ، وفعالية بروتوكول السلامة الخاص بها ووصف كيف تلتزم الشركة بمتطلبات SB 1047. على غرار إخطارات الانتهاكات ، إذا حدث "حادث سلامة الذكاء الاصطناعي" ، يجب على المطور الإبلاغ عنه إلى FMD خلال 72 ساعة من علمه بالحادث.\n\n إذا وجد أن تدابير السلامة لدى المطور غير كافية ، يسمح SB 1047 للنائب العام في كاليفورنيا بتقديم أمر قضائي ضد المطور. ذلك يعني أن المطور يجب أن يتوقف عن التشغيل أو تدريب نموذجه.\n\n إذا تم العثور فعلًا على استخدام نموذج الذكاء الاصطناعي في حدث كارثي ، يمكن للنائب العام في كاليفورنيا مقاضاة الشركة. بالنسبة لنموذج يكلف 100 مليون دولار تدريبه ، يمكن أن تصل العقوبات إلى ما يصل إلى 10 ملايين دولار في الانتهاك الأول و 30 مليون دولار في الانتهاكات اللاحقة. تتداول سعر العقوبة بما يتناسب مع ارتفاع تكلفة نماذج الذكاء الاصطناعي.\n\n وأخيرًا ، تتضمن الفاتورة حماية المبلغين عن الفساد للموظفين إذا حاولوا الكشف عن معلومات حول نموذج ذكاء اصطناعي غير آمن للنائب العام في كاليفورنيا.\n\n ماذا يقول أنصار الفكرة؟\n\n يقول النائب في مجلس الشيوخ بولاية كاليفورنيا سكوت وينر ، الذي صاغ الفاتورة ويمثل سان فرانسيسكو ، لـ TechCrunch إن SB 1047 هو محاولة للاستفادة من السياسات السابقة الفاشلة فيما يتعلق بوسائل التواصل الاجتماعي والخصوصية بيانات ، وحماية المواطنين قبل فوات الأوان.\n\n 'لدينا تاريخ مع التكنولوجيا بالانتظار قبل أن تحدث الآثار ، ثم القلق' ، قال وينر. 'دعونا لا ننتظر حدوث شيء سيئ. دعونا نتقدم فقط قبل ذلك.'\n\n حتى لو كانت شركة تدرب نموذجًا يبلغ قيمته 100 مليون دولار في تكساس ، أو بالمثل في فرنسا ، سيتم تغطيتها بواسطة SB 1047 طالما تقوم بأعمال في كاليفورنيا. يعتقد واينر أن الكونغرس قد قام بـ 'تشريع قليل بشكل ملحوظ حول التكنولوجيا على مدار الربع قرن الماضي' ، لذا يعتقد أنه من واجب كاليفورنيا تحديد سابقة هنا.\n\n عندما سُئل عما إذا قابل OpenAI و Meta حول SB 1047 ، يقول وينر 'لقد التقينا مع جميع المختبرات الكبيرة.'\n\n قدم عالما الذكاء الاصطناعي اللذان يطلقان عليهما أحيانًا "آباء الذكاء الاصطناعي" ، جيفري هينتون ويوشوا بينجيو ، دعمهما لهذا المشروع. ينتمي هذان الشخصان إلى جانب من مجتمع الذكاء الاصطناعي الذي يعاني من القلق حول سيناريوهات الكوارث الخطيرة التي قد تتسبب فيها تكنولوجيا الذكاء الاصطناعي. كتب مركز AI Safety ، أحد الجماعات التي ترعى SB 1047 ، رسالة مفتوحة في مايو 2023 تطالب العالم

Related Articles

Back to top button Back to top button