امروز:28 مرداد 1404

هوش مصنوعی کلود (Claude AI) آنتروپیک قابلیت پایان دادن به گفتگوهای آسیب‌زا را دریافت کرد

شرکت آنتروپیک (Anthropic) ویژگی تازه‌ای را برای دو مدل هوش مصنوعی خود معرفی کرده که می‌تواند نقطه پایانی برای جامعه «جیلبریک»‌کنندگان هوش مصنوعی باشد. بر اساس بیانیه رسمی، مدل‌های Claude Opus 4 و 4.1 از این پس توانایی دارند در شرایط خاص و نادر، گفتگویی را با کاربر پایان دهند.

چرا کلود گفتگو را قطع می‌کند؟

طبق توضیح آنتروپیک، این قابلیت تنها در مواردی فعال خواهد شد که گفتگو شامل درخواست‌های مضر یا سوءاستفاده‌گرانه باشد. برای نمونه، درخواست تولید محتوای جنسی درباره کودکان یا تلاش برای به‌دست‌آوردن اطلاعاتی که می‌تواند منجر به خشونت یا اقدامات تروریستی شود.

این شرکت تأکید کرده است که پایان دادن به گفتگو، آخرین راه‌حل است و تنها زمانی رخ می‌دهد که چندین بار تلاش برای تغییر مسیر مکالمه بی‌نتیجه بماند و امیدی به ادامه گفتگوی سازنده وجود نداشته باشد.

تجربه کاربران چگونه خواهد بود؟

اگر کلود یک گفتگو را خاتمه دهد، کاربر دیگر نمی‌تواند پیام جدیدی در همان چت ارسال کند؛ با این حال، امکان شروع یک گفتگوی تازه وجود دارد. حتی کاربران می‌توانند به عقب بازگردند و پیام‌های پیشین خود را ویرایش یا دوباره امتحان کنند تا مسیر مکالمه تغییر کند.

ارتباط این قابلیت با «رفاه هوش مصنوعی»

آنتروپیک این اقدام را بخشی از برنامه تحقیقاتی خود در زمینه AI Welfare یا رفاه هوش مصنوعی می‌داند. هرچند انسان‌انگاری (Anthropomorphism) در مورد مدل‌های زبانی همچنان محل بحث است، اما این شرکت می‌گوید توانایی خروج از تعاملات بالقوه آسیب‌زا، روشی کم‌هزینه برای کاهش خطرات احتمالی محسوب می‌شود.

آنتروپیک تأکید کرده که این ویژگی در حال حاضر آزمایشی است و از کاربران دعوت کرده تا بازخورد خود را هنگام مواجهه با چنین سناریوهایی ارائه دهند.

اشتراک گذاری

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *