امروز:28 آذر 1403

Bumble ابزار هوش مصنوعی خود را برای گرفتن عکس های برهنه ناخواسته منبع باز کرد

از سال 2019، Bumble از یادگیری ماشینی برای محافظت از کاربران خود در برابر عکس های زشت استفاده کرده است. این ویژگی با نام آشکارساز خصوصی، تصاویر ارسال شده از مسابقات را نمایش می دهد تا مشخص کند که آیا محتوای نامناسب را به تصویر می کشند یا خیر. اساساً برای گرفتن عکس‌های برهنه ناخواسته طراحی شده است، اما همچنین می‌تواند سلفی‌های بدون پیراهن و تصاویر اسلحه‌ها را علامت‌گذاری کند – که هر دو در Bumble مجاز نیستند. هنگامی که یک تطابق مثبت وجود دارد، برنامه تصویر توهین‌آمیز را محو می‌کند و به شما امکان می‌دهد تصمیم بگیرید که آیا می‌خواهید آن را مشاهده کنید، آن را مسدود کنید یا فردی که آن را برای شما ارسال کرده گزارش دهید.

در یک پست وبلاگ اخیر، بامبل اعلام کرد که یک آشکارساز خصوصی منبع باز است و این چارچوب را در Github در دسترس قرار می دهد. این شرکت در این فرآیند با اذعان به اینکه تنها یکی از بسیاری از بازیگران در بازار دوستیابی آنلاین است، گفت: “امیدواریم این ویژگی توسط جامعه فناوری گسترده‌تر مورد استفاده قرار گیرد، زیرا ما در تلاش هستیم تا اینترنت را به مکانی امن تر تبدیل کنیم.”

پیشرفت های جنسی ناخواسته یک واقعیت مکرر برای بسیاری از زنان هم در فضای مجازی و هم در دنیای واقعی است. یک مطالعه در سال 2016 نشان داد که 57 درصد از زنان احساس می‌کنند در برنامه‌های دوستیابی مورد استفاده قرار می‌گیرند، مورد آزار و اذیت قرار می‌گیرند. اخیراً، یک مطالعه در سال 2020 در بریتانیا نشان داد که 76 درصد از دختران بین 12 تا 18 سال تصاویر برهنه ناخواسته ارسال شده اند. این مشکل فراتر از برنامه های دوست یابی نیز گسترش می یابد و برنامه هایی مانند اینستاگرام روی راه حل های خود کار می کنند.

اشتراک گذاری