شرکت آنتروپیک (Anthropic) ویژگی تازهای را برای دو مدل هوش مصنوعی خود معرفی کرده که میتواند نقطه پایانی برای جامعه «جیلبریک»کنندگان هوش مصنوعی باشد. بر اساس بیانیه رسمی، مدلهای Claude Opus 4 و 4.1 از این پس توانایی دارند در شرایط خاص و نادر، گفتگویی را با کاربر پایان دهند.
چرا کلود گفتگو را قطع میکند؟
طبق توضیح آنتروپیک، این قابلیت تنها در مواردی فعال خواهد شد که گفتگو شامل درخواستهای مضر یا سوءاستفادهگرانه باشد. برای نمونه، درخواست تولید محتوای جنسی درباره کودکان یا تلاش برای بهدستآوردن اطلاعاتی که میتواند منجر به خشونت یا اقدامات تروریستی شود.
این شرکت تأکید کرده است که پایان دادن به گفتگو، آخرین راهحل است و تنها زمانی رخ میدهد که چندین بار تلاش برای تغییر مسیر مکالمه بینتیجه بماند و امیدی به ادامه گفتگوی سازنده وجود نداشته باشد.
تجربه کاربران چگونه خواهد بود؟
اگر کلود یک گفتگو را خاتمه دهد، کاربر دیگر نمیتواند پیام جدیدی در همان چت ارسال کند؛ با این حال، امکان شروع یک گفتگوی تازه وجود دارد. حتی کاربران میتوانند به عقب بازگردند و پیامهای پیشین خود را ویرایش یا دوباره امتحان کنند تا مسیر مکالمه تغییر کند.
ارتباط این قابلیت با «رفاه هوش مصنوعی»
آنتروپیک این اقدام را بخشی از برنامه تحقیقاتی خود در زمینه AI Welfare یا رفاه هوش مصنوعی میداند. هرچند انسانانگاری (Anthropomorphism) در مورد مدلهای زبانی همچنان محل بحث است، اما این شرکت میگوید توانایی خروج از تعاملات بالقوه آسیبزا، روشی کمهزینه برای کاهش خطرات احتمالی محسوب میشود.
آنتروپیک تأکید کرده که این ویژگی در حال حاضر آزمایشی است و از کاربران دعوت کرده تا بازخورد خود را هنگام مواجهه با چنین سناریوهایی ارائه دهند.
دیدگاهتان را بنویسید