امروز:9 فروردین 1403

ChatGPT ناگهان همه جا است. آیا ما آماده هوش مصنوعی هستیم؟

یا محصولی که سازندگان آن، در یک بازار تبلیغاتی، زمانی اعلام کردند که «خیلی خطرناک» برای عرضه برای عموم مردم، ChatGPT OpenAI این روزها ظاهراً همه جا است. سیستم همه کاره تولید متن خودکار (ATG) که قادر به خروجی نسخه‌هایی است که تقریباً از آثار یک نویسنده انسانی قابل تشخیص نیست، به طور رسمی هنوز در نسخه بتا است اما قبلاً در ده‌ها برنامه جدید استفاده شده است که برخی از آنها بسیار فراتر از نقش‌ها هستند. ChatGPT در ابتدا برای آن در نظر گرفته شده بود – مانند آن زمان که یک پوسته عملیاتی لینوکس را شبیه سازی می کرد یا زمانی که امتحان ورودی مدرسه کسب و کار وارتون را قبول کرد.

تبلیغات در مورد ChatGPT به طور قابل درک زیاد است، با تعداد بی شماری از استارت آپ ها به دنبال مجوز دادن به این فناوری برای همه چیز از مکالمه با شخصیت های تاریخی گرفته تا صحبت با ادبیات تاریخی، از یادگیری زبان های دیگر گرفته تا ایجاد برنامه های ورزشی و بررسی رستوران ها هستند.

اما با این پیشرفت‌های فنی، فرصت‌های زیادی برای سوء استفاده و آسیب آشکار به وجود می‌آید. و اگر تلاش‌های هول‌آمیز قبلی ما برای کنترل گسترش فناوری‌های صوتی و ویدیویی عمیق‌فیک نشانه‌ای بود، ما به طرز خطرناکی برای ویرانی که تولید خودکار اطلاعات نادرست در مقیاس و خودکار بر جامعه ما وارد می‌کند، آماده نیستیم.

نشان‌واره OpenAI روی صفحه‌نمایش تلفن و لوگوی مایکروسافت که روی صفحه نمایش در پس‌زمینه نمایش داده می‌شود، در این عکس تصویری که در 10 ژانویه 2023 در کراکوف، لهستان گرفته شده است، دیده می‌شود. (عکس توسط Jakub Porzycki/NurPhoto از طریق Getty Images)


OpenAI از زمان تاسیس خود در سال 2015 به عنوان یک غیر انتفاعی توسط سم آلتمن، پیتر تیل، رید هافمن، ایلان ماسک و تعدادی دیگر از افراد برجسته VC مشغول بوده است که همه در مجموع یک میلیارد دلار برای راه اندازی سازمان سرمایه گذاری کردند. . این سرمایه‌گذاری «نوع‌خواهانه» استدلال می‌کند که هوش مصنوعی «باید امتداد اراده‌های فردی انسان باشد و با روحیه آزادی، تا حد امکان به طور گسترده و یکنواخت توزیع شود».

سال بعد، این شرکت اولین بتای عمومی خود را از پلتفرم آموزشی تقویتی OpenAI Gym منتشر کرد. ماسک در سال 2018 به دلیل تضاد منافع احتمالی با مالکیت تسلا از هیئت مدیره استعفا داد. سال 2019 به ویژه برای OpenAI پر حادثه بود. در آن سال، این شرکت یک شرکت تابعه انتفاعی «سرپوش دار» (OpenAI LP) به سازمان غیرانتفاعی اصلی (OpenAI Inc) تأسیس کرد، یک میلیارد دلار سرمایه اضافی از مایکروسافت دریافت کرد و اعلام کرد که قصد دارد مجوز تجاری محصولات خود را آغاز کند.

در سال 2020، OpenAI به طور رسمی GPT-3 را راه‌اندازی کرد، یک تولیدکننده متن که قادر به «خلاصه‌سازی اسناد قانونی، پیشنهاد پاسخ به سؤالات خدمات مشتری، پیشنهاد کد کامپیوتری [و] اجرای بازی‌های نقش‌آفرینی مبتنی بر متن» بود. این شرکت API تجاری خود را در آن سال نیز منتشر کرد.

آرام ثابتی، بنیانگذار استارت آپ، پس از تعامل با سیستم، در آن زمان نوشت: «باید بگویم که من هول شدم. “این بسیار منسجم تر از هر سیستم زبان هوش مصنوعی است که من تا به حال امتحان کرده ام. تنها کاری که باید انجام دهید این است که یک درخواست بنویسید و متنی را که فکر می کند به طور قابل قبولی دنبال می کند اضافه می کند. من آن را برای نوشتن آهنگ ها، داستان ها، بیانیه های مطبوعاتی، تب های گیتار، مصاحبه ها، مقاله ها، دستورالعمل های فنی به دست آورده ام. خنده دار و ترسناک است. احساس می کنم آینده را دیده ام.»

سال 2021 شاهد انتشار DALL-E، یک تولید کننده متن به تصویر بود. و این شرکت در سال گذشته با انتشار ChatGPT، یک کلاینت چت مبتنی بر GPT-3.5، آخرین و فعلی تکرار GPT، دوباره سرفصل خبرها شد. در ژانویه 2023، مایکروسافت و OpenAI از تعمیق همکاری تحقیقاتی خود با سرمایه‌گذاری مداوم چند ساله و چند میلیارد دلاری خبر دادند.

دکتر برندی نونک، مدیر آزمایشگاه سیاست گذاری CITRIS و دانشیار تحقیقات سیاست فناوری در UC برکلی، به Engadget گفت: “من فکر می کنم این کار در بیرون ریختن متنی که قابل قبول است کار بسیار خوبی انجام می دهد.” «احساس می‌کند که واقعاً کسی آن را نوشته است. من خودم در واقع از آن برای غلبه بر یک نویسنده استفاده کرده‌ام، فقط به این فکر می‌کنم که چگونه در بحثی که می‌خواهم مطرح کنم جریان دارم، بنابراین آن را مفید دیدم.»

گفته می‌شود، Nonnecke نمی‌تواند عادت سرسختانه سیستم برای تولید ادعاهای نادرست را پشت سر بگذارد. او افزود: «این مقاله به مقالاتی اشاره خواهد کرد که وجود ندارند. در حال حاضر، در این مرحله، واقع بینانه است، اما هنوز راه زیادی در پیش است.»

هوش مصنوعی مولد چیست؟


OpenAI تنها بازیکن بازی ATG نیست. هوش مصنوعی مولد (یا به طور خلاصه، gen-AI) تمرین استفاده از الگوریتم‌های یادگیری ماشینی برای تولید محتوای جدید – خواه متن، تصویر، صدا یا ویدیو باشد – بر اساس مجموعه آموزشی از پایگاه‌های داده نمونه برچسب‌گذاری شده است. این یک رژیم آموزشی تقویتی استاندارد بدون نظارت شما است، که مشابه آن آلفاگو گوگل، موتورهای توصیه آهنگ و ویدیو در سراسر اینترنت و همچنین سیستم‌های کمک راننده خودرو را آموزش داده‌اند. البته در حالی که مدل‌هایی مانند Stability AI’s Stable Diffusion یا Google’s Imagen برای تبدیل الگوهای رزولوشن بالاتر از نقاط تصادفی به تصاویر آموزش دیده‌اند، ATGهایی مانند ChatGPT، متن را ریمیکس می‌کنند.

حکیمان از داده های آموزشی خود بیرون کشیدند تا به طور مشکوکی واقع گرایانه، هرچند اغلب پیاده، نثر را ارائه دهند.

دکتر پیتر کراپ، استاد مطالعات فیلم و رسانه در دانشگاه کالیفرنیا، ایروین، به Engadget گفت: «آنها بر روی مقدار بسیار زیادی از ورودی آموزش دیده اند. «آنچه نتایج کم و بیش … میانگین آن ورودی است. این هرگز ما را با استثنایی یا خاص بودن، زیبا یا ماهر بودن تحت تاثیر قرار نمی دهد. این همیشه به نوعی شایسته خواهد بود – تا جایی که همه ما در مجموع تا حدودی در استفاده از زبان برای بیان خود صلاحیت داریم.”

هوش مصنوعی مولد در حال حاضر یک تجارت بزرگ است. در حالی که وقایع پر زرق و برق مانند سازنده Stable Diffusion به دلیل خراش دادن داده های آموزشی از Meta یا ChatGPT که توانسته راه خود را به دانشکده پزشکی باز کند (بله، علاوه بر وارتون) مورد شکایت قرار می گیرد، شرکت های Fortune 500 مانند NVIDIA، Facebook، Amazon Web Services، IBM و گوگل همه بی سر و صدا از Gen-AI برای منافع تجاری خود استفاده می کنند. آنها از آن در بسیاری از برنامه ها استفاده می کنند، از بهبود نتایج موتورهای جستجو و پیشنهاد کدهای کامپیوتری گرفته تا نوشتن محتوای بازاریابی و تبلیغات.


راز موفقیت ChatGPT


همانطور که دکتر کراپ اشاره می‌کند، تلاش‌ها برای واداشتن ماشین‌ها برای برقراری ارتباط با ما، همانطور که با افراد دیگر انجام می‌دهیم، در دهه‌های 1960 و 1970 آغاز شد و زبان‌شناسان جزو اولین پذیرندگان بودند. او توضیح داد: “آنها متوجه شدند که برخی از مکالمات را می توان به گونه ای الگوبرداری کرد که کم و بیش خودکفا باشند.” “اگر بتوانم با یک درمانگر معمولی کلیشه ای صحبت کنم، به این معنی است که می توانم کامپیوتر را طوری برنامه ریزی کنم که به عنوان درمانگر عمل کند.” به این ترتیب الیزا تبدیل به یک تخم مرغ عید پاک NLP شد که در Emacs، ویرایشگر متن محبوب لینوکس پنهان شده بود.

امروز، ما از نوادگان فناوری آن تلاش‌های اولیه استفاده می‌کنیم تا منوهای رستوران‌های شیک را برایمان ترجمه کنیم، به عنوان دستیار دیجیتالی در تلفن‌هایمان خدمت کنیم و به‌عنوان نماینده خدمات مشتری با ما چت کنیم. با این حال، مشکل این است که برای اینکه یک هوش مصنوعی بتواند هر یک از این عملکردها را انجام دهد، باید به طور ویژه برای انجام آن یک کار خاص آموزش دیده باشد. ما هنوز سال‌ها با هوش مصنوعی عمومی کاربردی فاصله داریم، اما بخشی از قابلیت چشمگیر ChatGPT ناشی از توانایی آن در نوشتن شعر متوسط است که می‌تواند مجموعه‌ای از شرایط خدمات جعلی را برای وب‌سایت Truth Social به صدای دونالد ترامپ بدون نیاز به آموزش تخصصی بین این دو.

این انعطاف پذیری ساده امکان پذیر است زیرا ChatGPT در هسته خود یک ربات چت است. این اولین و مهمتر از همه برای تقلید دقیق از یک انسان مکالمه طراحی شده است، که در واقع در Reddit به مدت یک هفته در سال 2020 قبل از انتشار انجام داد. این با استفاده از روش‌های یادگیری نظارت‌شده آموزش داده شد که در آن مربیان انسانی ابتدا هر دو طرف یک مکالمه را به مدل تغذیه می‌کردند – هم آنچه کاربر انسانی و هم عامل هوش مصنوعی قرار بود بگویند. ChatGPT با داشتن اصول اولیه در آن robomind، سپس اجازه داشت تا با انسان‌ها گفتگو کند و پاسخ‌های آن پس از هر جلسه رتبه‌بندی شود. پاسخ‌های ذهنی بهتر در سیستم پاداش داخلی مدل امتیاز بالاتری کسب کردند و متعاقباً برای آنها بهینه شدند. این منجر به هوش مصنوعی با زبان نقره‌ای می‌شود، اما استعداد بررسی واقعیت «فقط به‌طور مرتب ویکی را قبل از زنگ زدن بررسی می‌کند».

بخشی از موفقیت پرحاشیه ChatGPT – با به دست آوردن رکورد 100 میلیون کاربر فعال ماهانه تنها دو ماه پس از راه‌اندازی آن – مطمئناً می‌تواند به استراتژی‌های بازاریابی جامد مانند سال 2020، ناتاشا آلن، شریک Foley & اشاره کرد. Lardner LLP، به Engadget گفت. “من فکر می کنم بخش دیگر این است که استفاده از آن چقدر آسان است. می دانید، یک فرد معمولی فقط می تواند برخی از کلمات را به کار ببندد و شما به آنجا بروید.

“افرادی که قبلاً به هوش مصنوعی علاقه ای نداشتند، واقعاً برایشان مهم نبود که چیست” اکنون شروع به توجه کرده اند. آلن استدلال می کند که سهولت استفاده از آن یک مزیت است و ChatGPT را به “چیزی جذاب و جالب برای افرادی تبدیل می کند که ممکن است به فناوری های هوش مصنوعی علاقه نداشته باشند.”

او اذعان کرد: “این یک ابزار بسیار قدرتمند است.” “فکر نمی کنم کامل باشد. من فکر می کنم که بدیهی است که برخی از خطاها وجود دارد، اما … 70 تا 80 درصد راه را برای شما به ارمغان می آورد.


آیا ChatGPT مایکروسافت، Taye مایکروسافت برای نسل جدید خواهد بود؟


اما در 20 تا 30 درصد آخر ممکن است بسیاری از موارد اشتباه پیش برود، زیرا ChatGPT در واقع نمی داند کلماتی که در حال ترکیب مجدد با جملات جدید هستند چه معنایی دارند، فقط روابط آماری بین آنها را درک می کند. سام آلتمن، مدیر اجرایی OpenAI، در ژوئیه 2020 در توییتی هشدار داد: «هیجان GPT-3 خیلی زیاد است. چشمگیر است اما هنوز هم دارای نقاط ضعف جدی است و گاهی اوقات اشتباهات بسیار احمقانه ای مرتکب می شود.

این اشتباهات «احمقانه» از مقایسه‌های بی‌معنی مانند «مداد از توستر سنگین‌تر است» تا تعصب نژادپرستانه‌ای که در چت‌ربات‌های گذشته مانند «تای» دیده‌ایم، متغیر است – خوب، واقعاً، اگر صادق باشیم، همه آنها تا به امروز هستند. برخی از پاسخ‌های ChatGPT حتی خود را تشویق می‌کنند

در میان کاربران خود، مجموعه ای از معضلات اخلاقی را ایجاد می کند (نه محدود به، آیا هوش مصنوعی باید تحقیقات علمی را تنظیم کند؟) هم برای شرکت و هم برای کل حوزه.

قابلیت ChatGPT برای استفاده نادرست بسیار زیاد است. قبلاً دیده‌ایم که از آن برای ایجاد بازاریابی هرزنامه و بدافزار کاربردی و نوشتن مقالات انگلیسی دبیرستانی استفاده می‌کند. اینها در مقایسه با آنچه ممکن است پس از بومی شدن این فناوری وجود داشته باشد، آزاردهنده کوچکی هستند.

Nonnecke گفت: “من نگران هستم زیرا اگر ویدیو و صدای جعلی عمیق داشته باشیم، آن را با ChatGPT گره بزنیم، جایی که می تواند چیزی شبیه به سبک صحبت کردن دیگران بنویسد.” این دو چیز در کنار هم فقط یک بشکه پودر برای اطلاعات نادرست متقاعد کننده هستند.

او ادامه داد: “من فکر می کنم بنزین روی آتش است، زیرا مردم به سبک خاصی می نویسند و صحبت می کنند.” و این گاهی اوقات می تواند به شما بگوید – اگر یک دیپ فیک می بینید و درست به نظر نمی رسد، روشی که آنها در مورد چیزی صحبت می کنند. در حال حاضر، GPT بسیار شبیه به افراد است، هر دو چگونه آنها می نویسند و صحبت می کنند. من فکر می کنم که این در واقع آسیب را تشدید می کند.»

نسل کنونی چت‌بات‌های جعل هویت افراد مشهور از نظر تاریخی دقیق نیستند (مثلاً آواتار هنری فورد یهودی‌ستیزانه نیست) اما پیشرفت‌های آینده تقریباً می‌تواند خطوط بین واقعیت و محتوای ایجاد شده را پاک کند. Nonnecke با اشاره به اینکه کلاهبرداران قبلاً از نرم‌افزار شبیه‌سازی صوتی استفاده کرده‌اند تا خود را به عنوان یکی از بستگان علامت نشان دهند و از آنها پول کلاهبرداری کنند، گفت: “اولین راهی که قرار است از آن استفاده شود، بسیار محتمل است که کلاهبرداری کند.”

“بزرگترین چالش این است که چگونه به درستی به آن رسیدگی کنیم، زیرا این تقلبی های عمیق از بین رفته اند. شما در حال حاضر سردرگمی را دارید،” Nonnecke گفت. “گاهی اوقات از آن به عنوان سود سهام دروغگو یاد می شود: هیچ کس نمی داند که آیا درست است یا نه، پس به نوعی همه چیز دروغ است و به هیچ چیز نمی توان اعتماد کرد.”

باری، ایتالیا – 17 ژانویه: در این تصویر تصویری – برنامه Gpt Chat، نصب شده در تلفن هوشمند در 17 ژانویه 2023 در باری، ایتالیا. Chat GPT نوعی فناوری هوش مصنوعی است که از پردازش زبان طبیعی و یادگیری ماشینی برای ایجاد مکالمات شبیه انسان استفاده می کند. از آن در برنامه های مختلفی مانند چت ربات های خدمات مشتری، دستیاران مجازی و سیستم های خودکار پشتیبانی مشتری استفاده می شود. (عکس از دوناتو فاسانو/گتی ایماژ)

ChatGPT به دانشگاه می رود


ChatGPT در سراسر آکادمیک نیز در حال افزایش است. مولد متن بخش کتبی امتحان ورودی مدرسه بازرگانی وارتون را به همراه هر سه بخش آزمون مجوز پزشکی ایالات متحده گذرانده است. پاسخ سریع بوده است (همانطور که بیشتر درگیری های وحشت زده در پاسخ به فناوری های جدید معمولاً چنین است) اما بسیار متنوع است. سیستم مدارس دولتی شهر نیویورک رویکرد سنتی را در پیش گرفت و به طور بی‌اثری استفاده از برنامه را توسط دانش‌آموزان «ممنوع» کرد، در حالی که مربیانی مانند دکتر اتان مولیک، دانشیار دانشکده معتبر وارتون دانشگاه پنسیلوانیا، آن را در برنامه‌های درسی خود پذیرفته‌اند.

مولیک گفت: “این یک تغییر ناگهانی بود، درست است؟ چیزهای خوب زیادی وجود دارد که ما باید آنها را متفاوت انجام دهیم، اما من فکر می کنم می توانیم مشکلات نحوه آموزش نوشتن به مردم در جهان با ChatGPT را حل کنیم.” NPR در ژانویه.

او افزود: «حقیقت این است که من احتمالاً نمی‌توانستم جلوی آنها را بگیرم، حتی اگر این کار را نمی‌خواستم». در عوض، Mollick از دانش‌آموزانش می‌خواهد که از ChatGPT به‌عنوان یک ایده‌ساز و سریع برای تکالیف مقاله‌شان استفاده کنند.

دکتر کراپ از UCI رویکرد مشابهی در پیش گرفته است. او توضیح داد: «در حال حاضر در چند کلاس تدریس می‌کنم که در آن‌ها به راحتی می‌توانم بگویم، «خوب، این تکلیف نوشتن ما است، بیایید ببینیم ChadGPT چه چیزی را ارائه می‌کند». من پنج روش مختلف را با اعلان‌های مختلف یا اعلان‌های جزئی انجام دادم و سپس از دانش‌آموزان خواستم روی این موضوع کار کنند که چگونه تشخیص دهیم که این توسط یک انسان نوشته نشده است و چه چیزی می‌توانیم از آن بیاموزیم؟

آیا ChatGPT برای شغل نویسندگی شما آمده است؟


در ابتدای سال، سایت خبری فناوری CNET به دلیل استفاده از ATG با طراحی خاص خود برای تولید کل مقاله‌های توضیح‌دهنده مالی بلند مدت – در مجموع 75 مقاله از نوامبر 2022. ظاهراً این پست‌ها به شدت توسط انسان بررسی شده بودند، منتشر شد. ویراستاران برای اطمینان از دقیق بودن خروجی خود، اگرچه بررسی های گذرا اشتباهات واقعی فاحشی را کشف کردند که CNET و شرکت مادر آن، Red Ventures را ملزم به صدور اصلاحات و به روز رسانی برای بیش از نیمی از مقالات می کرد.

رئیس BuzzFeed، Jonah Peretti، پس از دیدن پیامد فاجعه‌باری که CNET از این هجوم رایانه‌ای تجربه می‌کرد، بلافاصله تصمیم گرفت که زبانش را نیز در خروجی بگذارد و اعلام کرد که نشریه او قصد دارد از Gen-AI برای ایجاد محتوای کم خطر مانند آزمون‌های شخصیتی استفاده کند. .

این خبر تنها چند هفته پس از آن منتشر شد که BuzzFeed بخش قابل توجهی از اعضای تحریریه خود را به دلیل “شرایط چالش برانگیز بازار” اخراج کرد. نادیده گرفتن این تصادف سخت است، به ویژه با توجه به موجی از اخراج‌ها که در حال حاضر بخش‌های فناوری و رسانه را به این دلیل خاص به لرزه درآورده است، حتی در شرایطی که خود شرکت‌ها از درآمد بی‌سابقه برخوردار هستند.

این اولین بار نیست که فناوری جدید کارگران فعلی را جابجا می کند. پل کروگمن، ستون نویس NYT به عنوان مثال به استخراج زغال سنگ اشاره می کند. این صنعت در طول قرن بیستم شاهد کاهش عظیم نیروی کار بود، نه به این دلیل که استفاده ما از زغال سنگ کاهش یافت، بلکه به این دلیل که فناوری‌های معدن به اندازه‌ای پیشرفت کردند که برای انجام همان مقدار کار به انسان کمتری نیاز بود. همین اثر در صنعت خودروسازی با روبات هایی که جایگزین افراد در خطوط مونتاژ می شوند دیده می شود.

کروگمن معتقد است: «پیش‌بینی دقیق اینکه هوش مصنوعی چگونه بر تقاضای کارکنان دانش تأثیر می‌گذارد دشوار است، زیرا بسته به صنعت و وظایف شغلی خاص، احتمالاً متفاوت خواهد بود. با این حال، ممکن است در برخی موارد، هوش مصنوعی و اتوماسیون بتواند برخی از وظایف مبتنی بر دانش را کارآمدتر از انسان ها انجام دهد و به طور بالقوه نیاز به برخی از کارکنان دانش را کاهش دهد.

با این حال، دکتر کراپ نگران نیست. من می بینم که برخی از روزنامه نگاران گفته اند، “نگران هستم.” شغل من قبلاً تحت تأثیر رسانه های دیجیتال و توزیع دیجیتال قرار گرفته است. اکنون نوع نوشتنی که من به خوبی انجام می‌دهم، می‌تواند با رایانه ارزان‌تر و سریع‌تر انجام شود.” ، نیاز – تمایل – به تشخیص آنچه در دیگران در مورد آنها انسانی است، داشته باشید.

[ChatGPT] چشمگیر است. بازی کردن با آن سرگرم کننده است، [اما] ما هنوز اینجا هستیم،» او افزود: «ما هنوز در حال خواندن هستیم، هنوز هم قرار است یک رابط اندازه انسانی برای مصرف انسان و برای لذت انسان باشد.»

نترسید که مطمئناً کسی ما را نجات خواهد داد


Nonnecke اطمینان دارد که دنبه های خرد کردن واقعیت اشتراکی ChatGPT در نهایت بسته می شود، چه توسط کنگره و چه خود صنعت در پاسخ به فشار عمومی. او به Engadget گفت: “من در واقع فکر می کنم که حمایت دو حزبی برای این کار وجود دارد، که در فضای هوش مصنوعی جالب است.” “و در حفظ حریم خصوصی داده ها، حفاظت از داده ها، ما تمایل داریم از حمایت دو حزبی برخوردار باشیم.”

او به تلاش‌هایی در سال 2022 اشاره می‌کند که توسط محقق ایمنی و تراز OpenAI، اسکات آرونسون، برای ایجاد واترمارک رمزنگاری شده به گونه‌ای که کاربر نهایی بتواند به راحتی مواد تولید شده توسط رایانه را شناسایی کند، به عنوان نمونه‌ای از تلاش‌های صنعت برای خودتنظیمی اشاره می‌کند.

آرونسون در وبلاگ خود نوشت: «اساساً، هر زمان که GPT متن طولانی تولید می‌کند، ما می‌خواهیم یک سیگنال مخفی غیرقابل توجه در انتخاب کلمات آن وجود داشته باشد، که می‌توانید بعداً برای اثبات اینکه، بله، این متن از GPT آمده است، استفاده کنید. ما می‌خواهیم گرفتن یک خروجی GPT و ارسال آن به گونه‌ای که گویی از یک انسان آمده است، بسیار سخت‌تر باشد. بدیهی است که این می تواند برای جلوگیری از سرقت علمی دانشگاهی مفید باشد، اما برای مثال، به عنوان مثال، تولید انبوه تبلیغات نیز مفید است.»

اثربخشی چنین حفاظتی باید دید. هیچ شفافیتی در نحوه تصمیم گیری آنها وجود ندارد که چه نوع درخواست هایی را مسدود یا مسدود کنند، که برای من بسیار نگران کننده است.

اشتراک گذاری