أصدر الرئيس جو بايدن أمرًا تنفيذيًا شاملاً يهدف إلى وضع معايير صارمة لسلامة الذكاء الاصطناعي، مما يؤكد على الاستفادة الأخلاقية منه. له آثار على الذكاء الاصطناعي مفتوح المصدر وتأثيرات محتملة على الابتكار في الولايات المتحدة.
في 30 أكتوبر، كشف الرئيس جو بايدن عن أمر تنفيذي شامل يهدف إلى وضع معايير صارمة لسلامة الذكاء الاصطناعي. يقدم الأمر ست معايير جديدة لسلامة وأمان الذكاء الاصطناعي مع التركيز على الاستفادة الأخلاقية منه في الوكالات الحكومية. من بين تلك الوجوبات، مشاركة نتائج اختبار السلامة لنماذج الذكاء الاصطناعي التي تشكل مخاطر كبيرة للأمن القومي والأمن الاقتصادي أو الصحة العامة. كما يسرع في تقنيات الحفاظ على الخصوصية في تطوير الذكاء الاصطناعي. ومع ذلك، أثار غياب تفاصيل التنفيذ المحددة مخاوف داخل الصناعة.
أشار المستثمر في مجال الذكاء الاصطناعي آدم ستراك إلى التحديات في التنبؤ بالمخاطر المستقبلية، وخاصة في مجتمع البرمجيات مفتوح المصدر. ومع ذلك، أكد على التركيز في الأمر على الأطُر والامتثال للبيانات. أعرب مارتن كاسادو وخبراء آخرون في مجال الذكاء الاصطناعي عن مخاوف بشأن التأثير على البرمجيات مفتوحة المصدر والشركات الصغيرة في تلبية متطلبات تم تصميمها للشركات الكبيرة.
بينما ينتقد البعض إمكانية الزيادة في التنظيم، يشدد آخرون مثل ماثيو بوتمان على ضرورة إطارات تنظيمية تولي الأمان الاستهلالي وتطوير الذكاء الاصطناعي الأخلاقي أولوية. يسلطون الضوء على إمكانية الذكاء الاصطناعي لتحقيق آثار إيجابية في مجالات متقدمة مثل التصنيع المتقدم والتكنولوجيا الحيوية والطاقة. الأمر دفع بإنشاء معهد سلامة الذكاء الاصطناعي للمساهمة في جهود السلامة.