امروز:7 اردیبهشت 1403

گزارش شده است که سه کارمند سامسونگ اطلاعات حساسی را به ChatGPT درز داده اند

در ظاهر، ChatGPT ممکن است ابزاری به نظر برسد که می تواند برای مجموعه ای از وظایف کاری مفید باشد. اما قبل از اینکه از ربات چت بخواهید یادداشت های مهم را خلاصه کند یا کار شما را از نظر خطا بررسی کند، بهتر است به خاطر داشته باشید که هر چیزی که با ChatGPT به اشتراک می گذارید می تواند برای آموزش سیستم استفاده شود و شاید حتی در پاسخ های آن به سایر کاربران ظاهر شود. این چیزی است که احتمالاً چندین کارمند سامسونگ باید قبل از اینکه اطلاعات محرمانه خود را با چت بات به اشتراک بگذارند، از آن آگاه می‌بودند.

به گفته The Economist Korea، بلافاصله پس از اینکه بخش نیمه هادی سامسونگ اجازه استفاده از ChatGPT را به مهندسان داد، کارگران حداقل در سه نوبت اطلاعات محرمانه را به آن لو دادند. گزارش شده است که یکی از کارمندان از چت بات خواسته است تا کد منبع پایگاه داده حساس را از نظر خطا بررسی کند، دیگری بهینه سازی کد را درخواست کرد و سومی یک جلسه ضبط شده را به ChatGPT ارسال کرد و از آن خواست تا دقیقه ایجاد کند.

گزارش‌ها حاکی از آن است که سامسونگ پس از اطلاع از لغزش‌های امنیتی، با محدود کردن طول اعلان‌های ChatGPT کارمندان به یک کیلوبایت یا 1024 کاراکتر متن، وسعت گذرنامه‌های تقلبی را در آینده محدود می‌کند. همچنین گفته می شود که این شرکت در حال بررسی سه کارمند مورد بحث و ساخت ربات چت خود برای جلوگیری از حوادث مشابه است. Engadget برای نظر دادن با سامسونگ تماس گرفته است.

خط‌مشی داده‌های ChatGPT بیان می‌کند که، مگر اینکه کاربران صراحتاً انصراف دهند، از دستورات آنها برای آموزش مدل‌های خود استفاده می‌کند. مالک ربات چت OpenAI از کاربران می‌خواهد اطلاعات محرمانه را در مکالمات با ChatGPT به اشتراک نگذارند، زیرا «نمی‌تواند درخواست‌های خاصی را از تاریخچه شما حذف کند». تنها راه خلاص شدن از شر اطلاعات شناسایی شخصی در ChatGPT، حذف حساب کاربری شما است – فرآیندی که ممکن است تا چهار هفته طول بکشد.

حماسه سامسونگ مثال دیگری از این است که چرا هنگام استفاده از ربات‌های چت، همانطور که شاید در تمام فعالیت‌های آنلاین خود باید احتیاط کنید، ارزش دارد. شما هرگز نمی دانید که اطلاعات شما به کجا ختم می شود.

اشتراک گذاری