دیو ویلنر، مدیر اعتماد و ایمنی OpenAI، همانطور که از طریق یک پست Linkedin اعلام شد، این سمت را ترک کرد. ویلنر همچنان در یک “نقش مشاوره” باقی می ماند، اما از دنبال کنندگان لینکدین خواسته است تا برای فرصت های مرتبط “به تماس شوند”. سرپرست سابق پروژه OpenAI بیان میکند که این انتقال پس از تصمیم برای گذراندن زمان بیشتری با خانوادهاش صورت میگیرد. بله، این چیزی است که آنها همیشه می گویند، اما ویلنر آن را با جزئیات واقعی دنبال می کند.
او مینویسد: «در ماههای پس از راهاندازی ChatGPT، برای من سختتر و دشوارتر بود که به پایان معاملهام ادامه دهم. OpenAI در حال گذراندن یک مرحله با شدت بالا در توسعه خود است – و بچه های ما هم همینطور. هرکسی که بچه های خردسال داشته باشد و یک شغل فوق العاده شدید دارد، می تواند با این تنش ارتباط برقرار کند.»
او همچنان میگوید که به همه چیزهایی که شرکت در دوران تصدیاش انجام داده افتخار میکند و خاطرنشان کرد که این «یکی از جالبترین و جالبترین مشاغل» در جهان بود.
البته، این انتقال به دلیل برخی از موانع قانونی پیش روی OpenAI و محصول امضا شده آن، ChatGPT، داغ می شود. FTC اخیراً تحقیقاتی را در مورد این شرکت به دلیل نگرانی از نقض قوانین حمایت از مصرف کننده و درگیر شدن در اقدامات “غیرمنصفانه یا فریبنده” آغاز کرده است که می تواند به حریم خصوصی و امنیت عمومی لطمه بزند. این تحقیقات شامل اشکالی است که اطلاعات خصوصی کاربران را فاش می کند، که مطمئناً به نظر می رسد در حوزه اعتماد و ایمنی قرار می گیرد.
ویلنر میگوید تصمیم او در واقع «انتخاب بسیار آسانی بود، هرچند نه انتخابی که افراد در موقعیت من اغلب به صراحت در ملاء عام انجام میدهند». او همچنین اظهار می دارد که امیدوار است تصمیم او به عادی سازی بحث های بازتر در مورد تعادل کار و زندگی کمک کند.
در ماههای اخیر نگرانیهای فزایندهای در مورد ایمنی هوش مصنوعی وجود دارد و OpenAI یکی از شرکتهایی است که به دستور رئیس جمهور بایدن و کاخ سفید موافقت کرده است که پادمانهای خاصی را روی محصولات خود اعمال کند. این موارد شامل اجازه دادن به کارشناسان مستقل برای دسترسی به کد، علامت گذاری خطرات برای جامعه مانند سوگیری ها، به اشتراک گذاری اطلاعات ایمنی با دولت و واترمارک کردن محتوای صوتی و تصویری است تا مردم بدانند که توسط هوش مصنوعی تولید شده است.