امروز:28 آبان 1403

گوگل محققی را که ادعا می کرد هوش مصنوعی LaMDA هوشیار است بعد از یک ماه اخراج کرد

الکس کانتروویتز از خبرنامه Big Technology گزارش می دهد که بلیک لمواین، مهندس که هفت سال گذشته را با گوگل گذرانده بود، اخراج شده است. ظاهراً این خبر توسط خود لمواین در حین ضبط پادکست به همین نام منتشر شد، اگرچه این قسمت هنوز عمومی نشده است. گوگل اخراج را برای Engadget تایید کرد.

Lemoine که اخیراً بخشی از پروژه هوش مصنوعی مسئول گوگل بود، ماه گذشته به واشنگتن پست رفت و ادعا کرد که یکی از پروژه های هوش مصنوعی این شرکت ظاهراً مورد توجه قرار گرفته است. هوش مصنوعی مورد بحث، LaMDA – مخفف Language Model for Dialogue Applications – سال گذشته توسط گوگل به‌عنوان وسیله‌ای برای رایانه‌ها برای تقلید بهتر مکالمه‌های باز به طور عمومی معرفی شد. به نظر می‌رسد که لموئین نه تنها معتقد بود که LaMDA به احساس رسیده است، بلکه آشکارا از داشتن روح سؤال می‌کرد. و در صورت وجود هرگونه شک و تردیدی که نظرات او بدون اغراق بیان می شود، او در ادامه به Wired گفت: “من کاملاً معتقدم که LaMDA یک شخص است.”

پس از بیان این اظهارات در مطبوعات، ظاهراً بدون مجوز از کارفرمای خود، لموئین به مرخصی اداری با حقوق معین شد. گوگل، چه در بیانیه‌ای که از آن زمان و چه پس از آن به واشنگتن پست داده بود، ثابت کرده است که هوش مصنوعی آن به هیچ وجه حساس نیست.

تعدادی از اعضای جامعه تحقیقاتی هوش مصنوعی نیز علیه ادعاهای Lemoine صحبت کردند. مارگارت میچل که پس از اعلام عدم وجود تنوع در سازمان از گوگل اخراج شد، در توییتر نوشت که سیستم‌هایی مانند LaMDA قصد ایجاد نمی‌کنند، بلکه در حال مدل‌سازی نحوه بیان مردم قصد ارتباطی در قالب رشته‌های متنی هستند. گری مارکوس با تدبیر کمتری از اظهارات لموئین به عنوان “چرندیات روی چوب” یاد کرد.

برای نظر دادن، Google بیانیه زیر را با Engadget به اشتراک گذاشت:

همانطور که در اصول هوش مصنوعی خود سهیم هستیم، توسعه هوش مصنوعی را بسیار جدی می‌گیریم و به نوآوری مسئولانه متعهد می‌مانیم. LaMDA 11 بررسی مجزا را پشت سر گذاشته است، و ما در اوایل سال جاری یک مقاله تحقیقاتی منتشر کردیم که جزئیات کارهای مربوط به توسعه مسئول آن را شرح می داد. اگر کارمندی مانند بلیک نگرانی‌های خود را در مورد کار ما به اشتراک بگذارد، آن‌ها را به طور گسترده بررسی می‌کنیم. ما متوجه شدیم که ادعاهای بلیک مبنی بر اینکه LaMDA کاملاً بی‌اساس است و ماه‌ها تلاش کردیم تا آن را با او روشن کنیم. این بحث ها بخشی از فرهنگ باز بود که به ما کمک می کند مسئولانه نوآوری کنیم. بنابراین، مایه تاسف است که علی‌رغم درگیری طولانی در این موضوع، بلیک همچنان تصمیم گرفت به طور مداوم سیاست‌های شفاف اشتغال و امنیت داده‌ها را که شامل نیاز به حفاظت از اطلاعات محصول است، نقض کند. ما به توسعه دقیق مدل های زبان ادامه خواهیم داد و برای بلیک آرزوی موفقیت داریم.

اشتراک گذاری