یک گزارش جدید آمار نگران کننده ای را در مورد مشکلات Discord در مورد ایمنی کودکان فاش کرده است. در طول شش سال گذشته، NBC News 35 مورد از افراد بزرگسال را شناسایی کرده است که به اتهام «ربایش، نظافت یا تجاوز جنسی» که گفته میشود مربوط به ارتباط Discord بوده است، تحت پیگرد قانونی قرار گرفتهاند. حداقل 15 مورد از آنها به اعترافات مجرمانه یا احکام منجر شده اند و “بسیاری دیگر” هنوز در انتظار هستند.
گزارشگران همچنین 165 مورد دیگر از جمله چهار حلقه جنایت را کشف کردند که در آن بزرگسالان به دلیل به اشتراک گذاری CSAM (مواد استثمار جنسی کودکان) از طریق Discord یا استفاده از این سایت برای اخاذی از کودکان برای ارسال تصاویر گرافیکی جنسی از خود، که به عنوان اخاذی شناخته می شود، تحت تعقیب قرار گرفتند. بر اساس این گزارش، اعمال غیرقانونی اغلب در جوامع پنهان و اتاق های گفتگو انجام می شود.
یک جستجوی ساده در گوگل از “site:justice.gov Discord” تعداد زیادی بازدید به دست می آورد که بسیاری از آنها ماهیت ناراحت کننده دارند. به گفته پلیس، در یکی از مواردی که توسط NBC News شناسایی شده است، “یک نوجوان پس از ماهها مراقبت در دیسکورد، به آن سوی خطوط دولتی برده شد، مورد تجاوز جنسی قرار گرفت و در یک سوله در حیاط خانه قفل شد.”
استفان سائر از مرکز کانادایی حمایت از کودکان به NBC News گفت: «آنچه میبینیم فقط نوک کوه یخ است. و این اولین بار نیست که Discord به دلیل رسیدگی به شکایات کودک آزاری مورد انتقاد قرار می گیرد. سال گذشته، CNN همچنین حوادث متعددی از CSAM را شناسایی کرد، که برخی از والدین ادعا کردند که Discord کمک کمی ارائه کرده است.
در اوایل سال جاری، مرکز ملی بهرهکشی جنسی (NCOSE) بیانیهای با عنوان «دیسکورد به طرز غیرصادقانهای به نحوه برخورد با مواد سوء استفاده جنسی از کودکان پس از نامگذاری در لیست دوجین کثیف ۲۰۲۳ پاسخ میدهد» منتشر کرد. از جمله، اشاره کرد که پیوندهای CSAM شناسایی و گزارش شدند، اما همچنان در سرورهای Discord “بیش از دو هفته بعد” در دسترس هستند. این سازمان افزود که اقدامات Discord در پاسخ به این مسائل “بسیار منفعلانه است و در جستجوی فعال و حذف بهره برداری ناکام است.” این سایت توصیه می کند که این سایت که در حال حاضر بیش از 150 میلیون کاربر دارد، افراد زیر سن قانونی را تا زمانی که به طور اساسی تغییر نکند ممنوع کند.
در گزارش اخیر شفافیت، Discord گفت: “سرمایه گذاری و اولویت بندی آن در ایمنی کودکان هرگز قوی تر از این نبوده است” و افزود که 37102 حساب کاربری را غیرفعال کرده و 17425 سرور را به دلیل نقض ایمنی کودکان حذف کرده است. معاون اعتماد و ایمنی این شرکت، جان ردگریو، به NBC News گفت که او معتقد است که رویکرد پلتفرم به این موضوع از زمانی که Discord شرکت تعدیل کننده هوش مصنوعی Sentropy را در سال 2021 خرید، بهبود یافته است. این پلتفرم از چندین سیستم برای شناسایی فعال CSAM و تجزیه و تحلیل رفتار کاربر استفاده میکند. ردگریو گفت که او فکر میکند که شرکت اکنون به طور فعال اکثر موادی را که قبلاً «شناسایی، تأیید و نمایهسازی شدهاند» شناسایی میکند.
با این حال، این سیستمها در حال حاضر نمیتوانند مطالب یا پیامهای سوءاستفاده جنسی از کودکان را که هنوز فهرستبندی نشدهاند، شناسایی کنند. در بررسی سرورهای Discord ایجاد شده در ماه گذشته، NBC News 242 مورد را یافت که از عبارات پنهانی برای بازاریابی CSAM استفاده می کنند.
Discord تنها شرکت رسانه اجتماعی با مشکلات CSAM نیست. گزارش اخیر نشان میدهد که اینستاگرام به «اتصال و ترویج شبکه گستردهای از حسابهای کاربری» اختصاص داده شده به محتوای جنسی افراد زیر سن کمک کرده است. با این حال، گزارش شده است که Discord گاهی اوقات کار را برای اجرای قانون سخت کرده است، در یک مورد پس از درخواست پلیس انتاریو برای حفظ سوابق، درخواست پرداخت کرده است. برای نظر دادن با Discord تماس بگیرید.