در ظاهر، ChatGPT ممکن است ابزاری به نظر برسد که می تواند برای مجموعه ای از وظایف کاری مفید باشد. اما قبل از اینکه از ربات چت بخواهید یادداشت های مهم را خلاصه کند یا کار شما را از نظر خطا بررسی کند، بهتر است به خاطر داشته باشید که هر چیزی که با ChatGPT به اشتراک می گذارید می تواند برای آموزش سیستم استفاده شود و شاید حتی در پاسخ های آن به سایر کاربران ظاهر شود. این چیزی است که احتمالاً چندین کارمند سامسونگ باید قبل از اینکه اطلاعات محرمانه خود را با چت بات به اشتراک بگذارند، از آن آگاه میبودند.
به گفته The Economist Korea، بلافاصله پس از اینکه بخش نیمه هادی سامسونگ اجازه استفاده از ChatGPT را به مهندسان داد، کارگران حداقل در سه نوبت اطلاعات محرمانه را به آن لو دادند. گزارش شده است که یکی از کارمندان از چت بات خواسته است تا کد منبع پایگاه داده حساس را از نظر خطا بررسی کند، دیگری بهینه سازی کد را درخواست کرد و سومی یک جلسه ضبط شده را به ChatGPT ارسال کرد و از آن خواست تا دقیقه ایجاد کند.
گزارشها حاکی از آن است که سامسونگ پس از اطلاع از لغزشهای امنیتی، با محدود کردن طول اعلانهای ChatGPT کارمندان به یک کیلوبایت یا 1024 کاراکتر متن، وسعت گذرنامههای تقلبی را در آینده محدود میکند. همچنین گفته می شود که این شرکت در حال بررسی سه کارمند مورد بحث و ساخت ربات چت خود برای جلوگیری از حوادث مشابه است. Engadget برای نظر دادن با سامسونگ تماس گرفته است.
خطمشی دادههای ChatGPT بیان میکند که، مگر اینکه کاربران صراحتاً انصراف دهند، از دستورات آنها برای آموزش مدلهای خود استفاده میکند. مالک ربات چت OpenAI از کاربران میخواهد اطلاعات محرمانه را در مکالمات با ChatGPT به اشتراک نگذارند، زیرا «نمیتواند درخواستهای خاصی را از تاریخچه شما حذف کند». تنها راه خلاص شدن از شر اطلاعات شناسایی شخصی در ChatGPT، حذف حساب کاربری شما است – فرآیندی که ممکن است تا چهار هفته طول بکشد.
حماسه سامسونگ مثال دیگری از این است که چرا هنگام استفاده از رباتهای چت، همانطور که شاید در تمام فعالیتهای آنلاین خود باید احتیاط کنید، ارزش دارد. شما هرگز نمی دانید که اطلاعات شما به کجا ختم می شود.