آمریکا و انگلستان امنیت هوش مصنوعی را زیر ذره‌بین می‌برند

گوگل، آنتروپیک، OpenAI و سایر توسعه‌دهندگان هوش مصنوعی همچنان درحال بهبود فناوری‌های خود و انتشار مدل‌های زبانی بزرگ (LLM) بهتر هستند. اکنون دولت‌های بریتانیا و ایالات‌متحده برای ایجاد رویکرد مشترک ارزیابی مستقل ایمنی این مدل‌ها در زمان انتشار، با یکدیگر تفاهم‌نامه امضاء کرده‌اند.

بر اساس تفاهم‌نامه‌ی مؤسسه‌ی ایمنی هوش مصنوعی بریتانیا و همتای آن در ایالات‌متحده، مجموعه‌ای از آزمون‌ها برای ارزیابی خطرات و اطمینان از ایمنی پیشرفته‌ترین مدل‌های هوش مصنوعی توسعه‌ خواهد یافت.

بریتانیا و آمریکا به‌عنوان بخشی از مشارکت خود در بهبود ایمنی هوش مصنوعی، دانش فنی، اطلاعات و حتی پرسنل خود را با یکدیگر به‌اشتراک می‌گذارند و به‌نظر می‌رسد یکی از اهداف اولیه‌ی آن‌ها انجام تمرین آزمایشی مشترک روی مدل‌هایی است که دردسترس عموم قرار دارند.

میشل دونلان، وزیر علوم بریتانیا که توافق‌نامه‌ی ایمنی هوش مصنوعی با آمریکا را امضا کرده است، به فایننشال تایمز گفت که آن‌ها باید کار خود را به‌سرعت آغاز کنند زیرا انتظار می‌رود نسل جدیدی از مدل‌های هوش مصنوعی در سال آینده منتشر شود.

مشارکت آمریکا و بریتانیا اولین توافق دوجانبه درمورد ایمنی هوش مصنوعی درجهان محسوب می‌شود و البته هر دو کشور قصد دارند در آینده با کشورهای دیگر نیز همکاری داشته باشند.

جینا ریماندو، وزیر بازرگانی ایالات‌متحده، می‌گوید: «هوش مصنوعی، فناوری مهمی است که نسل ما را تعریف می‌کند. این مشارکت، اقدامات هر دو مؤسسه‌ را درمورد بررسی خطرات هوش مصنوعی، چه برای امنیت ملی ما و چه برای جامعه‌ی وسیع‌تر، سرعت می‌دهد. این مشارکت یعنی ما از نگرانی‌ها فرار نمی‌کنیم و به‌سمت آن‌ها می‌رویم.»

درحالی‌که مشارکت آمریکا و بریتانیا برای اطمینان از ایمنی هوش مصنوعی بر آزمایش و ارزیابی تمرکز دارد، دولت‌های سرتاسر جهان نیز درحال تدوین مقرراتی برای کنترل ابزارهای هوش مصنوعی هستند. جو بایدن مدتی پیش فرمانی اجرایی را امضاء کرد تا اطمینان حاصل کند استفاده‌ی آژانس‌های فدرال از ابزارهای هوش مصنوعی، حقوق و امنیت ایالات‌متحده را به‌خطر نخواهد انداخت.

نمایش بیشتر

نوشته های مشابه

دکمه بازگشت به بالا