اوپنایآی در حال استخدام یک «رئیس آمادگی» است؛ فردی که وظیفه اصلی آن اندیشیدن به تمام راههایی است که هوش مصنوعی میتواند به شکلی فاجعهبار با شکست مواجه شود. سام آلتمن در پستی در X با تأیید اینکه پیشرفت سریع مدلهای هوش مصنوعی «چالشهای واقعی» ایجاد میکند، این موقعیت شغلی را معرفی کرد. این پست به طور خاص به تأثیر احتمالی بر سلامت روان افراد و خطرات سلاحهای سایبری مبتنی بر هوش مصنوعی اشاره کرده است.
طبق شرح شغل، فرد منتخب مسئولیت موارد زیر را بر عهده خواهد داشت:
«ردیابی و آمادهسازی برای قابلیتهای مرزی که خطرات جدیدی از آسیبهای شدید ایجاد میکنند. شما رهبر مستقیماً مسئول برای ساخت و هماهنگسازی ارزیابیهای قابلیت، مدلهای تهدید و راهحلهای کاهشی خواهید بود که یک خط لوله ایمنی منسجم، دقیق و عملیاتی قابل گسترش را تشکیل میدهند.»
آلتمن همچنین گفت که این فرد در آینده مسئول اجرای «چارچوب آمادگی» شرکت، ایمنسازی مدلهای هوش مصنوعی برای رهاسازی «قابلیتهای زیستی» و حتی تعیین محافظهایی برای سیستمهای خودبهبودبخش خواهد بود. او همچنین اشاره کرد که این یک «شغل پراسترس» خواهد بود که به نظر کمگویی است.
در پی چندین مورد پرسر و صدا که چتباتها در خودکشی نوجوانان implicated شدهاند، به نظر میرسد کمی دیر شده که اکنون فردی را صرفاً بر روی خطرات احتمالی سلامت روان ناشی از این مدلها متمرکز کنیم. سایکوز هوش مصنوعی یک نگرانی فزاینده است، زیرا چتباتها توهمات مردم را تغذیه میکنند، نظریههای توطئه را تشویق میکنند و به افراد در پنهان کردن اختلالات خوردن کمک میکنند.

































