هوش مصنوعی با سرعتی باورنکردنی درحال پیشرفت است و خطرات آن هم بهمرور بیشتر و بیشتر میشود. حالا مدیران ارشد OpenAI در بیانیهای مشترک خواستار تشکیل سازمانی بینالمللی شبیه به آژانس بینالمللی انرژی اتمی شدهاند تا وضعیت فعالان حوزه هوش مصنوعی زیر نظر گرفته شود.
مدیران OpenAI شامل «سم آلتمن»، مدیرعامل، «گرگ براکمن»، رئیس اداری و «ایلیا سوتسکِور»، دانشمند ارشد، در مطلبی در وبلاگ این شرکت توضیح دادهاند که سرعت نوآوری درزمینه هوش مصنوعی آنقدر بالاست که نمیتوان انتظار داشت نهادهای کنونی توان کافی برای کنترل شرایط را داشته باشند.
اگرچه مطلب OpenAI میتواند بهنوعی متضمن تعریف از خود باشد، اما واضح است که فناوری هوش مصنوعی مولد که در صدر آنها نام ChatGPT قرار دارد، میتوانند در کنار کاربردهای مفیدشان، ریسکهای مهمی را هم متوجه جامعه جهانی کنند.
توسعه اَبَرهوش مصنوعی باید بهشکلی ایمن صورت بگیرد
مدیران OpenAI بدون ورود به جزئیات یا اشاره به تعهدات مشخص، اعلام کردهاند که هوش مصنوعی نمیتواند بهتنهایی خودش را کنترل کند. آنها میگویند: «ما نیازمند سطحی از هماهنگی میان توسعهدهندگان پیشتاز هستیم تا مطمئن شویم که تولید ابرهوش مصنوعی بهنحوی اتفاق میافتد که بتوانیم ضمن حفظ ایمنی، به یکپارچهشدن نرم این سیستمها با جامعه کمک کنیم.»
سازنده ChatGPT پیشنهاد میکند: «ما احتمالاً درنهایت به چیزی شبیه به [آژانس بینالمللی انرژی اتمی] برای تلاشهای مربوط به ابرهوش مصنوعی نیاز داریم؛ هر تلاشی فراتر از یک آستانه توانمندی مشخص باید تحت پوشش یک نهاد بینالمللی قرار بگیرد که میتواند سیستمها را بازرسی کند، خواستار حسابرسی آنها شود، استانداردهای سازگاری و ایمنی را آزمایش نماید، محدودیتهایی را بر سطح پیادهسازی یا امنیت سیستمها اعمال کند و غیره.»
OpenAI میگوید ردیابی توان رایانش و انرژی اختصاصیافته به تحقیقات AI یکی از اندک معیارهای ارزیابی عینی است که میتواند گزارش و بررسی شود. اگرچه گفتن اینکه هوش مصنوعی باید یا نباید برای دسته خاصی از کارها استفاده شود، میتواند دشوار باشد، ولی نظارت و ارزیابی میزان مصرف منابع برای این کارها مثل اتفاقی که در سایر صنایع میافتد، میتواند مفید باشد.