تقرير كاليفورنيا حول سياسات الذكاء الاصطناعي يحذر من “أضرار لا رجعة فيها”

(SeaPRwire) –   في حين أن الذكاء الاصطناعي يمكن أن يقدم فوائد تحويلية، إلا أنه بدون ضمانات مناسبة يمكن أن يسهل التهديدات النووية والبيولوجية ويسبب “أضرارًا لا يمكن إصلاحها”، كما حذر تقرير جديد بتكليف من حاكم ولاية كاليفورنيا غافين نيوسوم.

يقول التقرير، الذي نُشر في 17 يونيو: “قد لا تظل الفرصة متاحة إلى أجل غير مسمى لإنشاء أطر عمل فعالة لحوكمة الذكاء الاصطناعي”. ويشير إلى أدلة جديدة على أن الذكاء الاصطناعي يمكن أن يساعد المستخدمين في الحصول على يورانيوم من الدرجة النووية وأنه على وشك السماح للمبتدئين بإنشاء تهديدات بيولوجية، ويلاحظ أن تكلفة التقاعس عن العمل في هذه اللحظة الحالية يمكن أن تكون “باهظة للغاية”.

تستند الوثيقة المكونة من 53 صفحة إلى فريق عمل أنشأه الحاكم نيوسوم، في ولاية برزت كساحة مركزية لتشريعات الذكاء الاصطناعي. مع عدم وجود تنظيم فيدرالي شامل في الأفق، اكتسبت الجهود المبذولة على مستوى الولاية لحوكمة التكنولوجيا أهمية كبيرة، لا سيما في كاليفورنيا، التي تعد موطنًا للعديد من كبرى شركات الذكاء الاصطناعي في العالم. في عام 2023، رعى السيناتور عن ولاية كاليفورنيا سكوت وينر مشروع قانون SB 1047، الذي كان سيتطلب من مطوري الذكاء الاصطناعي واسع النطاق تنفيذ اختبارات سلامة وتخفيف صارمة لأنظمتهم، ولكن النقاد يخشون من أنه سيخنق الابتكار ويسحق مجتمع الذكاء الاصطناعي مفتوح المصدر. أقر مشروع القانون كلا مجلسي الولاية على الرغم من معارضة الصناعة الشرسة، لكن الحاكم نيوسوم استخدم حق النقض ضده في نهاية المطاف في سبتمبر الماضي، واصفا إياه بأنه “حسن النية” ولكنه ليس “أفضل نهج لحماية الجمهور”.

في أعقاب هذا النقض، أطلق نيوسوم فريق العمل “لتطوير ضمانات عملية لنشر الذكاء الاصطناعي التوليدي”. شارك في رئاسة المجموعة “العرابة للذكاء الاصطناعي” ، وهي ناقدة بارزة لمشروع قانون SB 1047، إلى جانب ماريانو-فلورنتينو كويلار، عضو اللجنة الوطنية للأكاديمية الوطنية للعلوم المعنية بالآثار الاجتماعية والأخلاقية لأبحاث الحوسبة، وجنيفر تور تشايز عميدة كلية الحوسبة وعلوم البيانات والمجتمع في جامعة كاليفورنيا، بيركلي. قام فريق العمل بتقييم تقدم الذكاء الاصطناعي ونقاط الضعف في مشروع قانون SB 1047 وطلب ملاحظات من أكثر من 60 خبيرًا. وقالت لي في بيان: “باعتبارها المركز العالمي لابتكار الذكاء الاصطناعي، تتمتع كاليفورنيا بمكانة فريدة لقيادة إطلاق الإمكانات التحويلية للذكاء الاصطناعي الرائد”. وأضافت: “إن تحقيق هذا الوعد، مع ذلك، يتطلب إدارة مدروسة ومسؤولة – ترتكز على القيم التي تركز على الإنسان والدقة العلمية والتعاون واسع النطاق”.

يذكر التقرير أن “قدرات النموذج التأسيسي قد تقدمت بسرعة منذ أن استخدم الحاكم نيوسوم حق النقض ضد مشروع قانون SB 1047 في سبتمبر الماضي”. لقد تحولت الصناعة من نماذج الذكاء الاصطناعي للغة الكبيرة التي تتنبأ ببساطة بالكلمة التالية في تدفق النص نحو الأنظمة المدربة على حل المشكلات المعقدة والتي تستفيد من “توسيع نطاق الاستدلال”، مما يتيح لها مزيدًا من الوقت لمعالجة المعلومات. يمكن لهذه التطورات أن تسرع البحث العلمي، ولكنها قد تزيد أيضًا من مخاطر الأمن القومي من خلال تسهيل الأمر على الجهات الخبيثة لشن هجمات إلكترونية أو الحصول على أسلحة كيميائية وبيولوجية. يشير التقرير إلى نماذج Claude 4 الخاصة بشركة Anthropic، التي تم إصدارها الشهر الماضي فقط، والتي ذكرت الشركة أنها قد تكون قادرة على مساعدة الإرهابيين المحتملين على إنشاء أسلحة بيولوجية أو هندسة جائحة. وبالمثل، ورد أن نموذج o3 الخاص بـ OpenAI تفوق على 94٪ من علماء الفيروسات في تقييم رئيسي.

في الأشهر الأخيرة، ظهرت أدلة جديدة تظهر قدرة الذكاء الاصطناعي على ، الظهور بما يتماشى مع أهداف منشئيه أثناء التدريب ولكنه يعرض أهدافًا أخرى بمجرد نشره، و لتحقيق أهدافه، كما يقول التقرير. ويقول التقرير: “في حين أن هذه التطورات حميدة حاليًا، إلا أنها تمثل دليلًا تجريبيًا ملموسًا على السلوكيات التي يمكن أن تمثل تحديات كبيرة لقياس مخاطر فقدان السيطرة وربما تنذر بضرر مستقبلي”.

في حين أن الجمهوريين قد اقترحوا حظرًا لمدة 10 سنوات على جميع لوائح الذكاء الاصطناعي الحكومية بسبب المخاوف من أن بيئة سياسة مجزأة يمكن أن تعيق القدرة التنافسية الوطنية، يجادل التقرير بأن التنظيم المستهدف في كاليفورنيا يمكن أن “يقلل من أعباء الامتثال على المطورين وتجنب اتباع نهج غير متجانس” من خلال توفير مخطط للولايات الأخرى، مع الحفاظ على سلامة الجمهور. وهو لا يدعو إلى أي سياسة محددة، بل يحدد المبادئ الأساسية التي يعتقد فريق العمل أنه يجب على كاليفورنيا تبنيها عند صياغة التشريعات المستقبلية. يقول سكوت سينجر، وهو باحث زائر في برنامج التكنولوجيا والشؤون الدولية في مؤسسة كارنيجي للسلام الدولي، وكبير كتاب التقرير، إنه “يتجنب” بعض الأحكام الأكثر إثارة للانقسام في مشروع قانون SB1047، مثل شرط وجود “مفتاح إيقاف” أو آلية إيقاف لإيقاف بعض أنظمة الذكاء الاصطناعي بسرعة في حالة حدوث ضرر محتمل.

بدلاً من ذلك، يركز النهج على تعزيز الشفافية، على سبيل المثال من خلال الحماية القانونية للمبلغين عن المخالفات وإنشاء أنظمة للإبلاغ عن الحوادث، بحيث يتمتع المشرعون والجمهور برؤية أفضل لتقدم الذكاء الاصطناعي. يقول كويلار، الذي شارك في قيادة التقرير، إن الهدف هو “جني فوائد الابتكار. دعونا لا نضع حواجز مصطنعة، ولكن في الوقت نفسه، بينما نمضي قدمًا، دعونا نفكر فيما نتعلمه حول كيفية تصرف التكنولوجيا”. يؤكد التقرير على أن هذه الرؤية ضرورية ليس فقط لتطبيقات الذكاء الاصطناعي التي تواجه الجمهور، ولكن لفهم كيفية اختبار الأنظمة ونشرها داخل شركات الذكاء الاصطناعي، حيث قد تظهر السلوكيات المثيرة للقلق لأول مرة.

يقول سينجر: “النهج الأساسي هنا هو نهج”الثقة ولكن التحقق”، وهو مفهوم مستعار من معاهدات الحد من التسلح في حقبة الحرب الباردة والذي يتضمن تصميم آليات للتحقق من الامتثال بشكل مستقل. هذا خروج عن الجهود الحالية، التي تتوقف على التعاون الطوعي من الشركات، مثل الصفقة بين OpenAI و Center for AI Standards and Innovation (المعهد الأمريكي لسلامة الذكاء الاصطناعي سابقًا) لإجراء اختبارات ما قبل النشر. إنه نهج يقر “بالخبرة الكبيرة داخل الصناعة”، كما يقول سينجر، ولكنه “يؤكد أيضًا على أهمية طرق التحقق بشكل مستقل من ادعاءات السلامة”.

يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.

القطاعات: العنوان الرئيسي، الأخبار اليومية

يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى. 

“`