مایکروسافت به سرعت چت های هوش مصنوعی بینگ را محدود کرد تا از پاسخ های نگران کننده جلوگیری کند، اما چند روز بعد مسیر خود را تغییر می دهد. این شرکت اکنون میگوید که چتهای طولانیتر را بازیابی میکند و با گسترش چتها به شش نوبت در هر جلسه (از پنج نوبت) و 60 چت در روز (از 50 چت) شروع میکند. مایکروسافت میگوید سقف روزانه به زودی به 100 چت افزایش مییابد، و جستجوهای منظم دیگر در این مجموع حساب نمیشوند. با این گفته، انتظار نداشته باشید که وقتی مکالمات طولانی باز می گردند، خرابی زیادی ایجاد کنید – مایکروسافت می خواهد آنها را “مسئولانه” بازگرداند.
این غول فناوری همچنین در حال رفع نگرانیهایی است که هوش مصنوعی بینگ ممکن است در پاسخها بیش از حد پر حرف باشد. یک آزمون آتی به شما امکان می دهد لحنی را انتخاب کنید که “دقیق” (یعنی پاسخ های کوتاه تر و دقیق تر)، “خلاقانه” (طولانی تر) یا “متعادل” باشد. اگر فقط به حقایق علاقه مند هستید، لازم نیست برای دریافت آن ها متن زیادی را مرور کنید.
ممکن است قبلاً علائم مشکل وجود داشته باشد. همانطور که Windows Central اشاره می کند، محقق دکتر گری مارکوس و معاون Nomic بن اشمیت کشف کردند که آزمایش های عمومی چت ربات بینگ (با نام رمز “سیدنی”) در هند چهار ماه پیش در جلسات طولانی نتایج عجیب و غریب مشابهی به همراه داشت. ما از مایکروسافت نظر خواستهایم، اما این شرکت در آخرین پست وبلاگ خود میگوید که پیشنمایش فعلی به منظور شناسایی موارد استفاده غیرمعمول است که با آزمایشهای داخلی آشکار نمیشوند.
مایکروسافت قبلاً گفته بود که کاملاً پیشبینی نمیکرد که مردم از چتهای طولانیتر Bing AI به عنوان سرگرمی استفاده کنند. محدودیتهای ضعیفتر تلاشی برای ایجاد تعادل بین «بازخورد» به نفع آن چتها است، همانطور که شرکت میگوید، با تدابیری که از رفتن ربات به مسیرهای عجیب و غریب جلوگیری میکند.