رئیس گروه حفاظت از بشریت شرکت هوش مصنوعی اُپن ایآی با بیان این که نگرانیهای ایمنی اهمیت خود را در برابر محصولات پر زرق و برق از دست دادهاند، از سمت خود استعفا داد.
به گزارش ایسنا، در تابستان سال ۲۰۲۳، شرکت هوش مصنوعی اُپنایآی(OpenAI) یک گروه ابرتنظیم(Superalignment) ایجاد کرد که هدف آن هدایت و کنترل سیستمهای هوش مصنوعی آینده بود که میتوانند آنقدر قدرتمند باشند که منجر به انقراض بشر شوند. کمتر از یک سال بعد، این گروه منحل شد.
به نقل از انگجت، اُپن ایآی به بلومبرگ گفته است که این شرکت در حال ادغام گروه در تلاشهای تحقیقاتی خود برای کمک به شرکت در دستیابی به اهداف ایمنی خود است. اما مجموعهای از توییتهای جان لیک(Jan Leike)، یکی از رهبران تیم که به تازگی استعفا داده، تنشهای داخلی بین تیم ایمنی و شرکت را فاش کرده است.
در بیانیهای که در روز جمعه در شبکه اجتماعی ایکس منتشر شد، لیک گفت که تیم ابرتنظیم برای بدست آوردن منابع برای انجام تحقیقات مبارزه کرده است. او نوشت: ساخت دستگاههای هوشمندتر از انسان، یک تلاش ذاتا خطرناک است. اُپن ایآی مسئولیت بزرگی را از طرف تمام بشریت بر عهده دارد. اما در طول سالهای گذشته، فرهنگ ایمنی و فرآیندها اهمیت خود را از دست داده است.