امروز:10 اردیبهشت 1403

Discord مشکل ایمنی کودک دارد

یک گزارش جدید آمار نگران کننده ای را در مورد مشکلات Discord در مورد ایمنی کودکان فاش کرده است. در طول شش سال گذشته، NBC News 35 مورد از افراد بزرگسال را شناسایی کرده است که به اتهام «ربایش، نظافت یا تجاوز جنسی» که گفته می‌شود مربوط به ارتباط Discord بوده است، تحت پیگرد قانونی قرار گرفته‌اند. حداقل 15 مورد از آنها به اعترافات مجرمانه یا احکام منجر شده اند و “بسیاری دیگر” هنوز در انتظار هستند.

گزارشگران همچنین 165 مورد دیگر از جمله چهار حلقه جنایت را کشف کردند که در آن بزرگسالان به دلیل به اشتراک گذاری CSAM (مواد استثمار جنسی کودکان) از طریق Discord یا استفاده از این سایت برای اخاذی از کودکان برای ارسال تصاویر گرافیکی جنسی از خود، که به عنوان اخاذی شناخته می شود، تحت تعقیب قرار گرفتند. بر اساس این گزارش، اعمال غیرقانونی اغلب در جوامع پنهان و اتاق های گفتگو انجام می شود.

یک جستجوی ساده در گوگل از “site:justice.gov Discord” تعداد زیادی بازدید به دست می آورد که بسیاری از آنها ماهیت ناراحت کننده دارند. به گفته پلیس، در یکی از مواردی که توسط NBC News شناسایی شده است، “یک نوجوان پس از ماه‌ها مراقبت در دیسکورد، به آن سوی خطوط دولتی برده شد، مورد تجاوز جنسی قرار گرفت و در یک سوله در حیاط خانه قفل شد.”

استفان سائر از مرکز کانادایی حمایت از کودکان به NBC News گفت: «آنچه می‌بینیم فقط نوک کوه یخ است. و این اولین بار نیست که Discord به دلیل رسیدگی به شکایات کودک آزاری مورد انتقاد قرار می گیرد. سال گذشته، CNN همچنین حوادث متعددی از CSAM را شناسایی کرد، که برخی از والدین ادعا کردند که Discord کمک کمی ارائه کرده است.

در اوایل سال جاری، مرکز ملی بهره‌کشی جنسی (NCOSE) بیانیه‌ای با عنوان «دیسکورد به طرز غیرصادقانه‌ای به نحوه برخورد با مواد سوء استفاده جنسی از کودکان پس از نام‌گذاری در لیست دوجین کثیف ۲۰۲۳ پاسخ می‌دهد» منتشر کرد. از جمله، اشاره کرد که پیوندهای CSAM شناسایی و گزارش شدند، اما همچنان در سرورهای Discord “بیش از دو هفته بعد” در دسترس هستند. این سازمان افزود که اقدامات Discord در پاسخ به این مسائل “بسیار منفعلانه است و در جستجوی فعال و حذف بهره برداری ناکام است.” این سایت توصیه می کند که این سایت که در حال حاضر بیش از 150 میلیون کاربر دارد، افراد زیر سن قانونی را تا زمانی که به طور اساسی تغییر نکند ممنوع کند.

در گزارش اخیر شفافیت، Discord گفت: “سرمایه گذاری و اولویت بندی آن در ایمنی کودکان هرگز قوی تر از این نبوده است” و افزود که 37102 حساب کاربری را غیرفعال کرده و 17425 سرور را به دلیل نقض ایمنی کودکان حذف کرده است. معاون اعتماد و ایمنی این شرکت، جان ردگریو، به NBC News گفت که او معتقد است که رویکرد پلتفرم به این موضوع از زمانی که Discord شرکت تعدیل کننده هوش مصنوعی Sentropy را در سال 2021 خرید، بهبود یافته است. این پلتفرم از چندین سیستم برای شناسایی فعال CSAM و تجزیه و تحلیل رفتار کاربر استفاده می‌کند. ردگریو گفت که او فکر می‌کند که شرکت اکنون به طور فعال اکثر موادی را که قبلاً «شناسایی، تأیید و نمایه‌سازی شده‌اند» شناسایی می‌کند.

با این حال، این سیستم‌ها در حال حاضر نمی‌توانند مطالب یا پیام‌های سوءاستفاده جنسی از کودکان را که هنوز فهرست‌بندی نشده‌اند، شناسایی کنند. در بررسی سرورهای Discord ایجاد شده در ماه گذشته، NBC News 242 مورد را یافت که از عبارات پنهانی برای بازاریابی CSAM استفاده می کنند.

Discord تنها شرکت رسانه اجتماعی با مشکلات CSAM نیست. گزارش اخیر نشان می‌دهد که اینستاگرام به «اتصال و ترویج شبکه گسترده‌ای از حساب‌های کاربری» اختصاص داده شده به محتوای جنسی افراد زیر سن کمک کرده است. با این حال، گزارش شده است که Discord گاهی اوقات کار را برای اجرای قانون سخت کرده است، در یک مورد پس از درخواست پلیس انتاریو برای حفظ سوابق، درخواست پرداخت کرده است. برای نظر دادن با Discord تماس بگیرید.

اشتراک گذاری