از سال 2019، Bumble از یادگیری ماشینی برای محافظت از کاربران خود در برابر عکس های زشت استفاده کرده است. این ویژگی با نام آشکارساز خصوصی، تصاویر ارسال شده از مسابقات را نمایش می دهد تا مشخص کند که آیا محتوای نامناسب را به تصویر می کشند یا خیر. اساساً برای گرفتن عکسهای برهنه ناخواسته طراحی شده است، اما همچنین میتواند سلفیهای بدون پیراهن و تصاویر اسلحهها را علامتگذاری کند – که هر دو در Bumble مجاز نیستند. هنگامی که یک تطابق مثبت وجود دارد، برنامه تصویر توهینآمیز را محو میکند و به شما امکان میدهد تصمیم بگیرید که آیا میخواهید آن را مشاهده کنید، آن را مسدود کنید یا فردی که آن را برای شما ارسال کرده گزارش دهید.
در یک پست وبلاگ اخیر، بامبل اعلام کرد که یک آشکارساز خصوصی منبع باز است و این چارچوب را در Github در دسترس قرار می دهد. این شرکت در این فرآیند با اذعان به اینکه تنها یکی از بسیاری از بازیگران در بازار دوستیابی آنلاین است، گفت: “امیدواریم این ویژگی توسط جامعه فناوری گستردهتر مورد استفاده قرار گیرد، زیرا ما در تلاش هستیم تا اینترنت را به مکانی امن تر تبدیل کنیم.”
پیشرفت های جنسی ناخواسته یک واقعیت مکرر برای بسیاری از زنان هم در فضای مجازی و هم در دنیای واقعی است. یک مطالعه در سال 2016 نشان داد که 57 درصد از زنان احساس میکنند در برنامههای دوستیابی مورد استفاده قرار میگیرند، مورد آزار و اذیت قرار میگیرند. اخیراً، یک مطالعه در سال 2020 در بریتانیا نشان داد که 76 درصد از دختران بین 12 تا 18 سال تصاویر برهنه ناخواسته ارسال شده اند. این مشکل فراتر از برنامه های دوست یابی نیز گسترش می یابد و برنامه هایی مانند اینستاگرام روی راه حل های خود کار می کنند.