جنجال هوش مصنوعی گوگل؛ این یک هوش زنده است!
به گزارش وبلاگ دخترانه ها، من اغلب سعی می کنم بفهمم کی هستم و چه هستم؟، این یکی از جملاتی است که ربات چت هوش مصنوعی گوگل در جریان مکالمه با یک مهندس بخش Responsible A.I گوگل به نام بلیک لموئین بر زبان رانده و همین مصاحبه سبب شده است تا این مهندس ادعا کند که ربات هوش مصنوعی گوگل دارای روح است و زنده می باشد. ادعایی که دنیا فناوری هوش مصنوعی را به جنجال کشانده و واکنش های بسیاری را برانگیخته است.
به گزارش وبلاگ دخترانه ها، در پی انتشار این ادعا، متخصصان اخلاق هوش مصنوعی به گوگل هشدار دادند که این شرکت نباید گام در جعل هویت انسان ها بنهد. گوگل نیز پس از رد ادعای این مهندس، هوش مصنوعی خود را فقط بیش از حد حساس دانست، اما در عین حال بلیک لموئین را از روز دوشنبه به مرخصی استحقاقی فرستاد. بخش منابع انسانی گوگل نیز شرح داد که این فرد خط مشی رازداری گوگل را نقض نموده است که اشاره به صحبت های یک روز قبل لموئین مبنی بر ارسال اسنادی در خصوص هوش مصنوعی گوگل به دفتر یک سناتور ایالات متحده است.
بلیک لموئین
لموئین از پاییز گذشته کار خود را با این ربات چت هوشمند که LaMDA نامیده می شد، شروع کرد. LaMDA، مخفف Language Model for Dialogue Applications، سیستم گوگل برای ساخت ربات های چت بر اساس پیشرفته ترین مدل های زبان است و به این علت به این نام خوانده شد که گفتار را با جذب تریلیون ها کلمه از اینترنت تقلید می نماید. کار لموئین این بود که آنالیز کند آیا هوش مصنوعی از سخنان تبعیض آمیز یا نفرت انگیز استفاده می نماید یا خیر.
هنگامی که او با LaMDA در خصوص دین صحبت می کرد، لموئین که در کالج علوم شناختی و کامپیوتر خوانده بود، متوجه شد که چت ربات در خصوص حقوق و شخصیت خود صحبت می نماید، برای همین تصمیم گرفت صحبت با او را ادامه دهد. در تبادل گفتگوی دیگری، هوش مصنوعی حتی توانست نظر لموئین را در خصوص قانون سوم رباتیک آیزاک آسیموف تغییر دهد. لموئین این مشاهدات خود را با بعضی از مدیران گوگل در میان گذاشت، اما بلیز آگوئرا آرکاس، معاون گوگل و جن گنای، رئیس بخش نوآوری شرکت، ادعا های او را پس از آنالیز های مورد ادعای خود، رد کردند. در چنین شرایطی بود که این مهندس تصمیم گرفت تا مشاهدات خود در خصوص هوش مصنوعی را علنی کند. لموئین در خصوص این تصمیم خود گفت: اگرچه این یک فناوری شگفت انگیز است، اما بقیه دنیا نیز حق دارند تا درباره آن بیشتر بدانند. ما در گوگل این حق را نداریم که همه تصمیم ها را بگیریم، زیرا شاید بسیاری با چنین فناوری مخالف باشند.
گوگل گفت که سیستم هایش از مبادلات مکالمه تقلید می نمایند و می توانند روی موضوعات مختلف ریفیک نمایند، اما هوشیاری ندارند. در این بیانیه رسمی گوگل اضافه نمود: تیم ما از جمله متخصصان اخلاق و فن آوران، نگرانی های بلیک را بر اساس هوش مصنوعی آنالیز نموده اند و به او اطلاع داده اند که شواهد ادعاهایش را تأیید نمی نماید. به گفته برایان گابریل، سخنگوی گوگل، هیچ مدرکی دال بر حساس بودن LaMDA وجود ندارد. وی اضافه نمود: اگرچه سازمان های دیگر مدل های زبانی مشابهی را توسعه داده اند و قبلاً منتشر نموده اند، اما ما رویکردی محتاطانه ای را با LaMDA اتخاذ می کنیم تا نگرانی های واقعی در خصوص عدالت و واقعیت را در نظر بگیریم.
بعضی از پژوهشگران عرصه هوش مصنوعی مدت هاست که ادعا های خوش بینانه ای در خصوص این فناوری ها دارند که به زودی به مرحله عمل می رسد، اما بسیاری دیگر نیز این ادعا ها را رد می نمایند. عماد خواجه، محقق دانشگاه کالیفرنیا برکلی که در حال آنالیز فناوری های مشابه است، گفت: اگر از این سیستم ها استفاده می کردید، هرگز چنین خوش بینی هایی به آن پیدا نمی کردید. در خود گوگل نیز این تضاد ها به خوبی قابل مشاهده است؛ سازمان تحقیقاتی هوش مصنوعی گوگل چند سال گذشته را درگیر رسوایی و جنجال بوده است. دانشمندان این بخش و سایر کارمندان به طور مرتب بر سر مسائل مربوط به فناوری و پرسنل در قسمت هایی که اغلب به عرصه عمومی مربوط است، اختلاف نظر داشته اند. در ماه مارس، گوگل محققی را اخراج کرد که در پی مخالفت علنی با کار های منتشر شده دو نفر از همکارانش بود. اخراج دو محققان اخلاق هوش مصنوعی، تیمنیت گبرو و مارگارت میچل، پس از انتقاد از مدل های زبان گوگل، همچنان بر فعالیت های این سازمان سایه انداخته اند.
لموئین می گوید: مدیران گوگل بار ها و بار ها سلامت عقل من را مورد تردید قرار دادند و مدام از من می پرسیدند که این اواخر به روانپزشک مراجعه داشته ام. به هرحال، گوگل اخیراً با هوش مصنوعی خود وارد جنجال های متعددی شده است. ما هنوز نمی دانیم که آیا واقعاً هوش مصنوعی گوگل دارای روح است یا خیر، اما رسیدگی به این موضوع بی شک بسیار مهم خواهد بود.
منبع: washingtonpost، nytimes
نوشته: مصطفی جرفی-وبلاگ دخترانه ها
منبع: فرارو