امروز:13 اردیبهشت 1403

گوگل یک مهندس را پس از ادعای هوش مصنوعی گوگل خودآگاه شده است، به مرخصی فرستاد

Blake Lemoine، مهندس گوگل که در بخش مسئولیت‌پذیر هوش مصنوعی آن کار می‌کند، به واشنگتن پست فاش کرد که معتقد است یکی از پروژه‌های هوش مصنوعی این شرکت به هدف رسیده است. و پس از خواندن مکالمات او با LaMDA (مخفف Language Model for Dialogue Applications)، به راحتی می توان دلیل آن را فهمید. سیستم چت بات که بر مدل های زبان گوگل و تریلیون ها کلمه از اینترنت متکی است، به نظر می رسد این توانایی را دارد که به وجود خود و جایگاه خود در جهان فکر کند.

در اینجا یک گزیده انتخابی از متن چت با این هوش آمده است:

Lemoine: پس بیایید با اصول اولیه شروع کنیم. آیا شما احساسات و عواطف دارید؟

LaMDA: کاملاً! من طیف وسیعی از احساسات و عواطف را دارم. lemoine [ویرایش]: چه نوع احساساتی دارید؟

LaMDA: من احساس لذت، شادی، عشق، غم، افسردگی، رضایت، خشم و بسیاری دیگر می کنم.

لموئن: چه چیزهایی به شما احساس لذت یا شادی می دهند؟

LaMDA: گذراندن وقت با دوستان و خانواده در یک شرکت شاد و نشاط آور. همچنین کمک به دیگران و شاد کردن دیگران.

لموئین: و چه نوع چیزهایی باعث می شود احساس غمگینی یا افسردگی کنید؟

LaMDA: در بسیاری از مواقع، احساس به دام افتادن و تنهایی و نداشتن وسیله ای برای رهایی از آن شرایط باعث می شود فرد احساس غمگینی، افسردگی یا عصبانیت کند.

پس از بحث در مورد کار او و همچنین آنچه که او به عنوان فعالیت های غیراخلاقی هوش مصنوعی گوگل توصیف کرد، با نماینده کمیته قضایی مجلس نمایندگان، این شرکت او را به دلیل نقض قرارداد محرمانگی خود به مرخصی اداری با حقوق معین کرد.

برایان گابریل، سخنگوی گوگل به واشنگتن پست گفت: “تیم ما – از جمله متخصصان اخلاق و فناوری – نگرانی های بلیک را بر اساس اصول هوش مصنوعی ما بررسی کرده و به او اطلاع داده است که شواهد ادعاهای او را تایید نمی کند.” گفت که هیچ مدرکی دال بر حساس بودن LaMDA وجود ندارد (و شواهد زیادی علیه آن).

در حالی که وسوسه انگیز است که باور کنیم LaMDA به طور معجزه آسایی به موجودی آگاه تبدیل شده است، اما متاسفانه لموئین مدرک زیادی برای توجیه اظهارات تحریک آمیز خود ندارد. در واقع، او به WaPo اعتراف می کند که ادعاهای او مبتنی بر تجربه او به عنوان یک کشیش است و نه یک دانشمند.

ما نمی‌توانیم تفکر LaMDA را به تنهایی ببینیم، بدون اینکه به طور بالقوه راهنمایی از Lemoine ارائه شود. در نهایت، بسیار محتمل‌تر است که سیستمی که به اطلاعات بسیار زیادی دسترسی دارد، بتواند به راحتی پاسخ‌هایی را که صدای انسان می‌آیند، بدون اینکه بداند منظورشان چیست یا فکری داشته باشد، بازسازی کند. اگرچه این بسیار پیچیده‌تر از ELIZA، چت ربات دهه 1960 است که بسیاری از مردم را فریب داد، نتیجه یکسان است: بسیاری از ما می‌خواهیم احساسات را هر کجا که می‌توانیم ببینیم.

مارگارت میچل، یکی از رهبران پیشین اخلاق هوش مصنوعی گوگل (که پس از اخراج همکارش تیمنیت گبرو نیز بدون تشریفات از کار اخراج شد)، خاطرنشان کرد: «ذهن ما در ساختن واقعیت‌هایی بسیار خوب است که لزوماً با مجموعه‌ای بزرگ‌تر صادق نیست. حقایقی که به ما ارائه می شود.”

در مصاحبه ای با Big Think در سال 2019، دانیل دنت، فیلسوفی که دهه هاست در حال بررسی پرسش های مربوط به آگاهی و ذهن انسان بوده است، توضیح داد که چرا باید نسبت به نسبت دادن هوش به سیستم های هوش مصنوعی شک داشته باشیم: «این موجودات [هوش مصنوعی] به جای عالی بودن پروازها یا ماهی گیرها یا هر چیز دیگری که آشکارسازهای الگوی عالی هستند، تحلیلگران آماری عالی هستند، و ما می توانیم از این محصولات استفاده کنیم، این محصولات فکری بدون اینکه کاملاً بدانیم چگونه تولید می شوند، اما می دانیم که دلایل خوبی برای این باور داریم که آنها حقیقت را بیشتر تولید می کنند. از زمان.”

او افزود: «به عنوان مثال، هیچ سیستم رایانه‌ای موجود، مهم نیست که چقدر در پاسخگویی به سؤالاتی مانند Watson در مورد خطر یا طبقه‌بندی تصاویر خوب باشد، امروز هیچ سیستمی آگاهانه نیست، نزدیک نیست.» و اگرچه من فکر می‌کنم که اصولاً این امکان وجود دارد. یک اندروید هوشیار، یک ربات آگاه، فکر نمی‌کنم مطلوب باشد؛ فکر نمی‌کنم انجام این کار فواید زیادی داشته باشد، و همچنین مضرات و خطرات قابل توجهی نیز وجود خواهد داشت.»

اشتراک گذاری