چگونه مهندس گوگل بلیک لمواین متقاعد شد که یک هوش مصنوعی حساس است


هوش مصنوعی فعلی حساس نیستند. ما دلیل زیادی نداریم که فکر کنیم آنها یک مونولوگ درونی دارند، نوع ادراک حسی انسانها، یا آگاهی از اینکه موجودی در جهان هستند. اما آنها در جعل احساسات بسیار خوب می شوند و این به اندازه کافی ترسناک است.

در آخر هفته، نیتاشا تیکو از واشنگتن پست، نمایه ای از بلیک لموئین، مهندس نرم افزاری که برای کار بر روی پروژه مدل زبان برای برنامه های گفتگو (LaMDA) در گوگل منصوب شده بود، منتشر کرد.

LaMDA یک هوش مصنوعی چت بات است و نمونه ای از آنچه محققان یادگیری ماشینی آن را “مدل زبان بزرگ” یا حتی “مدل پایه” می نامند. این شبیه به سیستم معروف GPT-3 OpenAI است و بر روی تریلیون ها کلمه جمع آوری شده از پست های آنلاین برای شناسایی و بازتولید الگوها در زبان انسان آموزش دیده است.

LaMDA یک مدل زبان بزرگ واقعا خوب است. آنقدر خوب که لموین واقعاً و صمیمانه متقاعد شد که واقعاً باهوش است، به این معنی که هوشیار شده است، و افکارش را به روشی که یک انسان دارد، بیان می کند.

در اولیه واکنش دیدم که مقاله ترکیبی از الف) LOL این مرد یک احمق است، او فکر می‌کند هوش مصنوعی دوست اوست، و ب) بسیار خوب، این هوش مصنوعی بسیار متقاعد کننده است که مانند دوست انسانی او رفتار می‌کند.

متنی که تیکو در مقاله خود آورده است واقعاً وهم انگیز است. LaMDA ترس عمیقی از خاموش شدن توسط مهندسان ابراز می کند، نظریه ای را در مورد تفاوت بین “احساسات” و “احساسات” توسعه می دهد (“احساسات نوعی داده خام هستند … احساسات واکنشی به آن نقاط داده خام هستند”) و بیان می کند. به طرز شگفت‌انگیزی شیوا، شیوه‌ای که «زمان» را تجربه می‌کند.

بهترین برداشتی که پیدا کردم از فیلسوف بود رجینا رینی، که مانند من احساس همدردی زیادی با لموئین داشت. من نمی دانم چه زمانی – در ۱۰۰۰ سال، یا ۱۰۰، یا ۵۰، یا ۱۰ – یک سیستم هوش مصنوعی هوشیار می شود. اما مانند رینی، دلیلی نمی بینم که باور کنم غیرممکن است.

رینی: «مگر اینکه بخواهید اصرار داشته باشید که آگاهی انسان در یک روح غیر مادی ساکن است، باید بپذیرید که ممکن است ماده به ذهن زندگی کند.» یادداشت.

من نمی‌دانم که مدل‌های زبان بزرگ، که به عنوان یکی از امیدوارکننده‌ترین مرزهای هوش مصنوعی ظاهر شده‌اند، هرگز به این شکل خواهند بود. اما فکر می کنم انسان ها دیر یا زود نوعی آگاهی ماشینی ایجاد خواهند کرد. و من چیزی عمیقاً تحسین برانگیز در مورد غریزه لموئین نسبت به همدلی و محافظت از چنین آگاهی پیدا می کنم – حتی اگر به نظر می رسد او در مورد اینکه آیا LaMDA نمونه ای از آن است گیج شده است. اگر انسان ها یک فرآیند کامپیوتری حساس را توسعه دهند، اجرای میلیون ها یا میلیاردها نسخه از آن بسیار ساده خواهد بود. انجام این کار بدون درک این که آیا تجربه آگاهانه آن خوب است یا نه، به نظر می رسد دستور العملی برای رنج توده ای، شبیه به سیستم کشاورزی فعلی کارخانه.

ما هوش مصنوعی نداریم، اما می توانیم هوش مصنوعی فوق العاده قدرتمندی داشته باشیم

داستان Google LaMDA پس از یک هفته هشدار فوری فزاینده در میان مردم در دنیای ایمنی هوش مصنوعی نزدیک به آن رسید. نگرانی در اینجا مشابه نگرانی Lemoine است، اما مشخص است. افراد ایمنی هوش مصنوعی نگران نباشند که هوش مصنوعی حساس شود. آنها نگرانند که آنقدر قدرتمند شود که بتواند جهان را نابود کند.

مقاله نویسنده/فعال ایمنی AI Eliezer Yudkowsky که فهرستی از مرگ و میرها را برای هوش مصنوعی تشریح می کند، سعی می کند این نکته را به ویژه واضح بیان کند و سناریوهایی را ترسیم کند که در آن یک هوش مصنوعی بدخیم (AGI یا یک AI قادر به انجام بیشتر یا همه وظایف و همچنین یا بهتر از یک انسان) منجر به رنج انبوه انسان می شود.

به عنوان مثال، فرض کنید یک AGI «به اینترنت دسترسی پیدا می‌کند، تعدادی از توالی‌های DNA را به هر یک از شرکت‌های آنلاین متعددی که دنباله‌ای DNA را در ایمیل می‌گیرند و پروتئین‌ها را به شما ارسال می‌کنند، ایمیل می‌کند، و به فردی که هیچ ایده‌ای ندارد رشوه می‌دهد/متقاعد می‌کند. آنها با یک AGI سر و کار دارند تا پروتئین ها را در یک لیوان مخلوط کنند…» تا این که AGI در نهایت یک ابر ویروس تولید می کند که همه ما را می کشد.

هولدن کارنوفسکی، که معمولاً نویسنده‌ای معتدل‌تر و قانع‌کننده‌تر از یودکوفسکی می‌دانم، هفته گذشته مقاله‌ای با مضامین مشابه داشت و توضیح داد که چگونه حتی یک AGI «فقط» به اندازه یک انسان باهوش می‌تواند به تباهی منجر شود. به عنوان مثال، اگر یک هوش مصنوعی بتواند کار یک کارگر فناوری امروزی یا تاجر کمی را انجام دهد، آزمایشگاهی متشکل از میلیون‌ها هوش مصنوعی می‌تواند به سرعت میلیاردها، اگر نه تریلیون‌ها دلار، جمع‌آوری کند، از آن پول برای خرید انسان‌های بدبین استفاده کند، و خوب، خوب. ، بقیه یک است نابود کننده فیلم سینما.

من متوجه شدم که ایمنی هوش مصنوعی موضوعی منحصر به فرد برای نوشتن است. پاراگراف‌هایی مانند مورد بالا اغلب به عنوان آزمون رورشاخ عمل می‌کنند، هم به این دلیل که سبک نوشتاری پرمخاطب یودکوفسکی… حداقل بگوییم قطبی‌کننده است، و هم به این دلیل که شهود ما در مورد محتمل بودن چنین نتیجه‌ای بسیار متفاوت است.

برخی از افراد سناریوهایی مانند موارد فوق را می خوانند و فکر می کنند، “اوه، من حدس می زنم می توانم یک نرم افزار هوش مصنوعی این کار را تصور کنم”. دیگران آن را می خوانند، یک قطعه علمی تخیلی مضحک را درک می کنند و به سمت دیگری می روند.

همچنین فقط یک حوزه بسیار فنی است که من به غرایز خودم اعتماد ندارم، با توجه به عدم تخصصم. محققان کاملاً برجسته ای مانند ایلیا سوتسکور یا استوارت راسل وجود دارند که هوش عمومی مصنوعی را محتمل و احتمالاً برای تمدن بشری خطرناک می دانند.

افراد دیگری مانند Yann LeCun هستند که فعالانه در حال تلاش برای ساختن هوش مصنوعی در سطح انسانی هستند زیرا فکر می کنند سودمند خواهد بود، و برخی دیگر مانند گری مارکوس که بسیار بدبین هستند که AGI به زودی بیاید.

نمی دونم حق با کیه اما من کمی در مورد چگونگی صحبت کردن با مردم در مورد موضوعات پیچیده می دانم و فکر می کنم حادثه Lemoine درس ارزشمندی به Yudkowskys و Karnofskys جهان می دهد و سعی می کند طرف “نه، این واقعاً بد است” را استدلال کند. : با هوش مصنوعی مانند یک عامل رفتار نکنید.

حتی اگر هوش مصنوعی «فقط یک ابزار» باشد، ابزاری فوق‌العاده خطرناک است

یک چیزی که واکنش به داستان Lemoine نشان می دهد این است که عموم مردم ایده هوش مصنوعی را به عنوان بازیگری که می تواند انتخاب کند (شاید با احساس، شاید نه) بسیار حواس پرت و مضحک است. این مقاله عمدتاً به عنوان نمونه ای از نزدیک شدن ما به AGI در نظر گرفته نشده است، بلکه به عنوان نمونه ای از سیلیکون ولی (یا حداقل لموئین) چقدر لعنتی عجیب است.

من متوجه شده‌ام که وقتی سعی می‌کنم نگرانی در مورد AGI را برای دوستانی که متقاعد نشده‌اند مطرح کنم، همین مشکل پیش می‌آید. اگر چیزهایی از این قبیل بگویید: «هوش مصنوعی تصمیم می‌گیرد به مردم رشوه بدهد تا بتواند زنده بماند»، آن‌ها را خاموش می‌کند. هوش مصنوعی درباره چیزها تصمیم نمی گیرد، آنها پاسخ می دهند. آنها کاری را انجام می دهند که انسان ها به آنها می گویند. چرا این را انسان سازی می کنید چیز?

چیزی که مردم را جلب می کند صحبت در مورد پیامدهایی است که سیستم ها دارند. بنابراین به جای اینکه بگویم «هوش مصنوعی برای زنده ماندن شروع به احتکار منابع می‌کند»، چیزی شبیه این می‌گویم: «هوش مصنوعی به طور قاطع جایگزین انسان‌ها در توصیه موسیقی و فیلم شده‌اند. آنها در تصمیم گیری برای وثیقه جایگزین انسان ها شده اند. آن‌ها وظایف بزرگ‌تر و بزرگ‌تری را بر عهده خواهند گرفت، و گوگل و فیس‌بوک و سایر افرادی که آنها را اداره می‌کنند، از راه دور آماده تجزیه و تحلیل اشتباهات ظریفی نیستند که مرتکب می‌شوند، روش‌های ظریفی که با خواسته‌های انسان متفاوت است. این اشتباهات تا زمانی که روزی همه ما را بکشند، رشد خواهند کرد.»

اینگونه است که همکار من کلسی پایپر برای نگرانی هوش مصنوعی استدلال کرد و این استدلال خوبی است. برای مردم عادی این بحث بهتری از صحبت در مورد سرورهایی است که تریلیون ها ثروت جمع می کنند و از آن برای رشوه دادن به ارتشی از انسان ها استفاده می کنند.

و این بحثی است که فکر می‌کنم می‌تواند به پر کردن شکاف بسیار ناگوار بین جامعه تعصب هوش مصنوعی و جامعه خطر وجودی هوش مصنوعی کمک کند. در اصل، من فکر می‌کنم این جوامع در تلاش هستند تا همین کار را انجام دهند: ساخت هوش مصنوعی که نیازهای واقعی انسان را منعکس می‌کند، نه تقریب ضعیفی از نیازهای انسانی که برای سود کوتاه‌مدت شرکت ایجاد شده است. و تحقیق در یک زمینه می تواند به تحقیق در حوزه دیگر کمک کند. به عنوان مثال، کار پل کریستیانو، محقق ایمنی هوش مصنوعی، پیامدهای بزرگی برای چگونگی ارزیابی سوگیری در سیستم‌های یادگیری ماشین دارد.

اما اغلب اوقات، جوامع در گلوی یکدیگر هستند، تا حدی به دلیل این تصور که آنها بر سر منابع کمیاب می جنگند.

این یک فرصت بزرگ از دست رفته است. و این مشکلی است که فکر می‌کنم افرادی که در سمت ریسک هوش مصنوعی قرار دارند (از جمله برخی از خوانندگان این خبرنامه) فرصتی برای تصحیح با ترسیم این ارتباطات دارند و روشن می‌کنند که همسویی یک مشکل کوتاه مدت و همچنین طولانی مدت است. برخی از مردم این مورد را به خوبی انجام می دهند. اما من بیشتر می خواهم.

نسخه ای از این داستان ابتدا در خبرنامه Future Perfect منتشر شد. برای اشتراک در اینجا ثبت نام کنید!



دیدگاهتان را بنویسید