قدمت السيناتور سينثيا لوميس (جمهورية وايومنغ) قانون الابتكار المسؤول والخبرة الآمنة (RISE) لعام 2025 ، وهو اقتراح تشريعي يهدف إلى توضيح أطر المسؤولية عن الذكاء الاصطناعي الذي يستخدمه المحترفون.
يمكن أن يؤدي مشروع القانون إلى تحقيق الشفافية من مطوري الذكاء الاصطناعي – دون الحاجة إلى أن تكون النماذج مفتوحة المصدر.
وفي بيان صحفي ، قال لوميس إن قانون RISE يعني أن المهنيين، مثل الأطباء والمحامين والمهندسين والمستشارين الماليين، يظلون مسؤولين قانونًا عن النصائح التي يقدمونها، حتى عندما تكون مدعومة بأنظمة الذكاء الاصطناعي.
في ذلك الوقت، لا يستطيع مطورو الذكاء الاصطناعي الذين يصنعون الأنظمة حماية أنفسهم من المسؤولية المدنية عندما تسوء الأمور إلا إذا نشروا بطاقات النماذج علنًا.
يُعرّف مشروع القانون المُقترح بطاقات النماذج بأنها وثائق تقنية مُفصّلة تكشف عن مصادر بيانات تدريب نظام الذكاء الاصطناعي، وحالات الاستخدام المُستهدفة، ومقاييس الأداء، والقيود المعروفة، وأوضاع الفشل المُحتملة. ويهدف كل هذا إلى مساعدة المُختصين على تقييم مدى مُلاءمة الأداة لعملهم.
وقال لوميس في بيان صحفي: "تقدر ولاية وايومنغ الابتكار والمساءلة؛ ويضع قانون RISE معايير يمكن التنبؤ بها تشجع على تطوير الذكاء الاصطناعي بشكل أكثر أمانًا مع الحفاظ على الاستقلال المهني".
وأضاف لوميس قائلاً: "هذا التشريع لا يخلق حصانة شاملة للذكاء الاصطناعي".
مع ذلك، فإن الحصانة الممنوحة بموجب هذا القانون لها حدود واضحة. يستثني التشريع حماية المطورين في حالات التهور، أو سوء السلوك المتعمد، أو الاحتيال، أو التضليل المتعمد، أو عندما تقع الأفعال خارج النطاق المحدد للاستخدام المهني.
بالإضافة إلى ذلك، يواجه المطورون مسؤوليةً مستمرةً بموجب قانون RISE. يجب تحديث وثائق ومواصفات الذكاء الاصطناعي في غضون 30 يومًا من نشر الإصدارات الجديدة أو اكتشاف حالات فشل جسيمة، مما يعزز التزامات الشفافية المستمرة.
لا يصل إلى مستوى المصدر المفتوح
إن قانون RISE، كما هو مكتوب الآن، لا يفرض أن تصبح نماذج الذكاء الاصطناعي مفتوحة المصدر بالكامل.
يمكن للمطورين حجب المعلومات الملكية، ولكن فقط إذا لم تكن المادة المحررة مرتبطة بالسلامة، وكان كل إغفال مصحوبًا بتبرير مكتوب يشرح إعفاء السر التجاري.
في مقابلة سابقة مع CoinDesk ، تحدث سيمون كيم، الرئيس التنفيذي لشركة Hashed، إحدى صناديق رأس المال الاستثماري الرائدة في كوريا، عن خطر الذكاء الاصطناعي المركزي المغلق المصدر والذي يعد بمثابة صندوق أسود.
قال كيم آنذاك: "إن OpenAI ليس مفتوح المصدر، ويتحكم فيه عدد قليل جدًا من الأشخاص، لذا فهو خطير للغاية. إن إنشاء هذا النوع من النماذج الأساسية [مغلقة المصدر] يشبه إنشاء "إله"، لكننا لا نعرف كيف يعمل".