امروز:28 آبان 1403

مایکروسافت در حال حاضر برخی از محدودیت‌هایی را که برای ابزارهای چت هوش مصنوعی Bing اعمال کرده است، برمی‌گرداند

مایکروسافت به سرعت چت های هوش مصنوعی بینگ را محدود کرد تا از پاسخ های نگران کننده جلوگیری کند، اما چند روز بعد مسیر خود را تغییر می دهد. این شرکت اکنون می‌گوید که چت‌های طولانی‌تر را بازیابی می‌کند و با گسترش چت‌ها به شش نوبت در هر جلسه (از پنج نوبت) و 60 چت در روز (از 50 چت) شروع می‌کند. مایکروسافت می‌گوید سقف روزانه به زودی به 100 چت افزایش می‌یابد، و جستجوهای منظم دیگر در این مجموع حساب نمی‌شوند. با این گفته، انتظار نداشته باشید که وقتی مکالمات طولانی باز می گردند، خرابی زیادی ایجاد کنید – مایکروسافت می خواهد آنها را “مسئولانه” بازگرداند.

این غول فناوری همچنین در حال رفع نگرانی‌هایی است که هوش مصنوعی بینگ ممکن است در پاسخ‌ها بیش از حد پر حرف باشد. یک آزمون آتی به شما امکان می دهد لحنی را انتخاب کنید که “دقیق” (یعنی پاسخ های کوتاه تر و دقیق تر)، “خلاقانه” (طولانی تر) یا “متعادل” باشد. اگر فقط به حقایق علاقه مند هستید، لازم نیست برای دریافت آن ها متن زیادی را مرور کنید.

ممکن است قبلاً علائم مشکل وجود داشته باشد. همانطور که Windows Central اشاره می کند، محقق دکتر گری مارکوس و معاون Nomic بن اشمیت کشف کردند که آزمایش های عمومی چت ربات بینگ (با نام رمز “سیدنی”) در هند چهار ماه پیش در جلسات طولانی نتایج عجیب و غریب مشابهی به همراه داشت. ما از مایکروسافت نظر خواسته‌ایم، اما این شرکت در آخرین پست وبلاگ خود می‌گوید که پیش‌نمایش فعلی به منظور شناسایی موارد استفاده غیرمعمول است که با آزمایش‌های داخلی آشکار نمی‌شوند.

مایکروسافت قبلاً گفته بود که کاملاً پیش‌بینی نمی‌کرد که مردم از چت‌های طولانی‌تر Bing AI به عنوان سرگرمی استفاده کنند. محدودیت‌های ضعیف‌تر تلاشی برای ایجاد تعادل بین «بازخورد» به نفع آن چت‌ها است، همانطور که شرکت می‌گوید، با تدابیری که از رفتن ربات به مسیرهای عجیب و غریب جلوگیری می‌کند.

اشتراک گذاری