هوش مصنوعی با سرعتی باورنکردنی درحال پیشرفت است و خطرات آن هم به‌مرور بیشتر و بیشتر می‌شود. حالا مدیران ارشد OpenAI در بیانیه‌ای مشترک خواستار تشکیل سازمانی بین‌المللی شبیه به آژانس بین‌المللی انرژی اتمی شده‌اند تا وضعیت فعالان حوزه هوش مصنوعی زیر نظر گرفته شود.


مدیران OpenAI شامل «سم آلتمن»، مدیرعامل، «گرگ براکمن»، رئیس اداری و «ایلیا سوتس‌کِور»، دانشمند ارشد، در مطلبی در وبلاگ این شرکت توضیح داده‌اند که سرعت نوآوری در‌زمینه هوش مصنوعی آن‌قدر بالاست که نمی‌توان انتظار داشت نهادهای کنونی توان کافی برای کنترل شرایط را داشته باشند.

اگرچه مطلب OpenAI می‌تواند به‌نوعی متضمن تعریف از خود باشد، اما واضح است که فناوری هوش مصنوعی مولد که در صدر آن‌ها نام ChatGPT قرار دارد، می‌توانند در کنار کاربردهای مفیدشان، ریسک‌های مهمی را هم متوجه جامعه جهانی کنند.

توسعه اَبَر‌هوش مصنوعی باید به‌شکلی ایمن صورت بگیرد
مدیران OpenAI بدون ورود به جزئیات یا اشاره به تعهدات مشخص، اعلام کرده‌اند که هوش مصنوعی نمی‌تواند به‌تنهایی خودش را کنترل کند. آن‌ها می‌گویند: «ما نیازمند سطحی از هماهنگی میان توسعه‌دهندگان پیشتاز هستیم تا مطمئن شویم که تولید ابرهوش مصنوعی به‌نحوی اتفاق می‌افتد که بتوانیم ضمن حفظ ایمنی، به یکپارچه‌شدن نرم این سیستم‌ها با جامعه کمک کنیم.»

سازنده ChatGPT پیشنهاد می‌کند: «ما احتمالاً درنهایت به چیزی شبیه به [آژانس بین‌المللی انرژی اتمی] برای تلاش‌های مربوط به ابرهوش مصنوعی نیاز داریم؛ هر تلاشی فراتر از یک آستانه توانمندی مشخص باید تحت پوشش یک نهاد بین‌المللی قرار بگیرد که می‌تواند سیستم‌ها را بازرسی کند، خواستار حسابرسی آن‌ها شود، استانداردهای سازگاری و ایمنی را آزمایش نماید، محدودیت‌هایی را بر سطح پیاده‌سازی یا امنیت سیستم‌ها اعمال کند و غیره.»

OpenAI می‌گوید ردیابی توان رایانش و انرژی اختصاص‌یافته به تحقیقات AI یکی از اندک معیارهای ارزیابی عینی است که می‌تواند گزارش و بررسی شود. اگرچه گفتن اینکه هوش مصنوعی باید یا نباید برای دسته خاصی از کارها استفاده شود، می‌تواند دشوار باشد، ولی نظارت و ارزیابی میزان مصرف منابع برای این کارها مثل اتفاقی که در سایر صنایع می‌افتد، می‌تواند مفید باشد.