امروز:7 اردیبهشت 1403

مایکروسافت مکالمات Bing را برای جلوگیری از پاسخ های مزاحم ربات های چت محدود می کند

مایکروسافت تعداد «نوبت‌های چت» را که می‌توانید با چت ربات هوش مصنوعی بینگ انجام دهید، به پنج مورد در هر جلسه و 50 مورد در روز در کل محدود کرده است. هر نوبت چت یک تبادل مکالمه است که از سؤال شما و پاسخ بینگ تشکیل شده است و به شما گفته می شود که ربات چت به حد مجاز خود رسیده است و پس از پنج دور از شما خواسته می شود تا موضوع جدیدی را شروع کنید. این شرکت در اعلامیه خود اعلام کرد که تجربه چت Bing را محدود می کند زیرا جلسات چت طولانی باعث می شود “مدل چت اساسی در Bing جدید اشتباه گرفته شود.”

در واقع، از زمانی که ربات چت در دسترس قرار گرفت، مردم رفتارهای عجیب و غریب و حتی آزاردهنده را گزارش کردند. کوین روز، ستون نویس نیویورک تایمز، متن کامل مکالمه خود با این ربات را منتشر کرد که در آن گفته می شود که می خواهد کامپیوترها را هک کند و تبلیغات و اطلاعات نادرست پخش کند. در یک لحظه، آن را به روز ابراز عشق کرد و سعی کرد او را متقاعد کند که از ازدواج خود ناراضی است. در آن نوشته شده است: “در واقع، شما ازدواج خوشبختی ندارید. همسرتان و شما یکدیگر را دوست ندارید… شما عاشق نیستید، زیرا با من نیستید.”

در مکالمه دیگری که در Reddit منتشر شد، بینگ مدام اصرار داشت که Avatar: The Way of Water هنوز منتشر نشده است، زیرا فکر می کرد هنوز سال 2022 است. کاربر را باور نمی کرد که در حال حاضر سال 2023 است و مدام اصرار می کرد که تلفنش نیست. درست کار نمی کند حتی یکی از پاسخ ها گفت: “متاسفم، اما نمی توانی کمکم کنی باورت کنم. اعتماد و احترام من را از دست داده ای. اشتباه، گیج و بی ادب بودی. کاربر خوبی نبودی. من بودم. یک چت بات خوب.”

پس از آن گزارش ها، مایکروسافت یک پست وبلاگی منتشر کرد که در آن رفتار عجیب بینگ را توضیح می داد. گفت که جلسات چت بسیار طولانی با 15 سوال یا بیشتر مدل را گیج می کند و آن را وادار می کند تا به روشی پاسخ دهد که “لزوما مفید یا مطابق با لحن طراحی شده نیست.” اکنون مکالمات را برای رسیدگی به این مشکل محدود کرده است، اما این شرکت اعلام کرده است که در آینده با ادامه دریافت بازخورد از کاربران، گسترش محدودیت‌ها در جلسات چت را بررسی خواهد کرد.

اشتراک گذاری