اوپن‌ای‌آی در حال استخدام یک «رئیس آمادگی» است؛ فردی که وظیفه اصلی آن اندیشیدن به تمام راه‌هایی است که هوش مصنوعی می‌تواند به شکلی فاجعه‌بار با شکست مواجه شود. سام آلتمن در پستی در X با تأیید اینکه پیشرفت سریع مدل‌های هوش مصنوعی «چالش‌های واقعی» ایجاد می‌کند، این موقعیت شغلی را معرفی کرد. این پست به طور خاص به تأثیر احتمالی بر سلامت روان افراد و خطرات سلاح‌های سایبری مبتنی بر هوش مصنوعی اشاره کرده است.

طبق شرح شغل، فرد منتخب مسئولیت موارد زیر را بر عهده خواهد داشت:
«ردیابی و آماده‌سازی برای قابلیت‌های مرزی که خطرات جدیدی از آسیب‌های شدید ایجاد می‌کنند. شما رهبر مستقیماً مسئول برای ساخت و هماهنگ‌سازی ارزیابی‌های قابلیت، مدل‌های تهدید و راه‌حل‌های کاهشی خواهید بود که یک خط لوله ایمنی منسجم، دقیق و عملیاتی قابل گسترش را تشکیل می‌دهند.»

آلتمن همچنین گفت که این فرد در آینده مسئول اجرای «چارچوب آمادگی» شرکت، ایمن‌سازی مدل‌های هوش مصنوعی برای رهاسازی «قابلیت‌های زیستی» و حتی تعیین محافظ‌هایی برای سیستم‌های خودبهبودبخش خواهد بود. او همچنین اشاره کرد که این یک «شغل پراسترس» خواهد بود که به نظر کم‌گویی است.

در پی چندین مورد پرسر و صدا که چت‌بات‌ها در خودکشی نوجوانان implicated شده‌اند، به نظر می‌رسد کمی دیر شده که اکنون فردی را صرفاً بر روی خطرات احتمالی سلامت روان ناشی از این مدل‌ها متمرکز کنیم. سایکوز هوش مصنوعی یک نگرانی فزاینده است، زیرا چت‌بات‌ها توهمات مردم را تغذیه می‌کنند، نظریه‌های توطئه را تشویق می‌کنند و به افراد در پنهان کردن اختلالات خوردن کمک می‌کنند.