
(SeaPRwire) – تُفكر الولايات المتحدة في تشديد قيود على الذكاء الاصطناعي – صحيفة نيويورك تايمز
تُفكر البيت الأبيض في استكشاف إمكانية مراجعة نماذج الذكاء الاصطناعي الجديدة قبل الإطلاق الرسمي، وهو تحوّل محتمل عن موقفه الحالي المتسامح، حسبما أفادت صحيفة نيويورك تايمز يوم الاثنين، مستشهدة بمصادر.
ووفقًا للتقرير، تفكر إدارة الرئيس الأمريكي دونالد ترامب في تشكيل مجموعة عمل بشأن الذكاء الاصطناعي تضم مسؤولين ومديرين تنفيذيين في قطاع التكنولوجيا لاستكشاف خيارات الرقابة، بما في ذلك إمكانية وجود عملية مراجعة رسمية.
وتقول المصادر إن هذه المبادرة تهدف إلى تجنّب آثار سياسية سلبية من هجوم سيبراني قد يتم تمكينه بالذكاء الاصطناعي، وفي الوقت نفسه منح المسؤولين وصولاً مبكرًا إلى النماذج الجديدة لتقييم ما إذا كانت يمكن أن توفر قدرات سيبرانية مفيدة لوزارة الدفاع.
ويمكن لهذا النظام أن يمنح الحكومة وصولاً مبكرًا إلى النماذج المتقدمة، على الرغم من عدم ضمان أنه يمكنه منع إطلاقها. وقد ناقش المسؤولون المخططات الأسبوع الماضي مع ممثلي شركات Anthropic وGoogle وOpenAI.
ويمكن أن يعكس هذا النهج معهد أمن الذكاء الاصطناعي البريطاني، الذي يقوم بتقييم النماذج المتقدمة من أجل المخاطر ويقدم نصائح للحكومة بشأن الحواجز الوقائية. وفي الولايات المتحدة، تخضع المختبرات الرئيسية بالفعل لاختبارات طوعية للنماذج مع المركز الفيدرالي للمعايير والابتكار في الذكاء الاصطناعي، لكن هذا المركز يتبنى منهجية أكثر توجهًا نحو الأعمال، حيث يُنظر إلى السلامة على أنها أداة لبناء الثقة.
وما زال غير واضح كيف ستعمل عملية المراجعة أو أي الوكالات ستقوم بتنفيذها. ومن المرجح أن يتم تقديم أي آلية من خلال أمر تنفيذي، على الرغم من عدم وجود جدول زمني محدد.
وسيمثل طلب المراجعات الرسمية تحولًا في سياسة ترامب بشأن الذكاء الاصطناعي. ومنذ عودته إلى السلطة، حث على تقليل التنظيم، معتبرًا الذكاء الاصطناعي “رضيعًا جميلًا حديث الولادة”، وهو أمر أساسي للتنافس مع الصين، وتحذّر من “السياسة أو القواعد السخيفة” التي قد تعيق نموه.
ويزعم صحيفة نيويورك تايمز أن هذا التحوّل اكتسب إلحاحًا بعد أن كشفت شركة Anthropic عن نموذج قوي جديد يُدعى Claude Mythos، وقررت عدم إطلاقه علنًا، معللة ذلك بأنه قد يكشف عن ثغرات خطيرة في البرمجيات.
ويأتي هذا النقاش أيضًا بعد نزاع بين شركة Anthropic ووزارة الدفاع، بعد أن رفضت الشركة تخفيف الحمايات المتعلقة بالمراقبة والأسلحة الذاتية. وصنفت وزارة الحرب الشركة بأنها “مخاطر على سلسلة التوريد”، واستبعدتها من العقود – وهي إجراء تقدمت الشركة بتحديه في المحكمة.
وتتوسع وزارة الدفاع بسرعة في استخدام الذكاء الاصطناعي في عملياتها، وحصلت مؤخرًا على اتفاقيات مع Google وOpenAI لنماذج سرية.
ويزداد القلق بشأن مخاطر الذكاء الاصطناعي في الولايات المتحدة منذ فترة. ووجد استطلاع رأي Pew Research Center العام الماضي أن 50% من الأمريكيين أكثر قلقًا من إثارة مشاعر الفرح بشأن الذكاء الاصطناعي، وهو ارتفاع عن 37% في عام 2021. وأظهر استطلاع Gallup في مارس تحوّلًا سلبيًا في رأي جيل Z، حيث انخفضت التفاؤل وارتفعت الغضب.
ويظل الشك العام بشأن دفع وزارة الدفاع للذكاء الاصطناعي مرتفعًا. ووجد استطلاع ITIF في فبراير أن 79% من الأمريكيين يعتقدون أن شخصًا بشريًا يجب أن يتخذ القرار النهائي بشأن القوة القاتلة، بينما قال 75% إن الذكاء الاصطناعي غير موثوق به بما يكفي للاستخدام في حالات الحياة أو الموت. وأظهر الاستطلاع نفسه دعمًا واسعًا لفرض حدود من قبل شركات التكنولوجيا، حيث أفاد 67% أن الشركات يجب أن تقيد كيفية استخدام منتجاتها، حتى من قبل الحكومة.
يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.
القطاعات: العنوان الرئيسي، الأخبار اليومية
يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.