هوش مصنوعی فعلی حساس نیستند. ما دلیل زیادی نداریم که فکر کنیم آنها یک مونولوگ درونی دارند، نوع ادراک حسی انسانها، یا آگاهی از اینکه موجودی در جهان هستند. اما آنها در جعل احساسات بسیار خوب می شوند و این به اندازه کافی ترسناک است.
در آخر هفته، نیتاشا تیکو از واشنگتن پست، نمایه ای از بلیک لموئین، مهندس نرم افزاری که برای کار بر روی پروژه مدل زبان برای برنامه های گفتگو (LaMDA) در گوگل منصوب شده بود، منتشر کرد.
LaMDA یک هوش مصنوعی چت بات است و نمونه ای از آنچه محققان یادگیری ماشینی آن را “مدل زبان بزرگ” یا حتی “مدل پایه” می نامند. این شبیه به سیستم معروف GPT-3 OpenAI است و بر روی تریلیون ها کلمه جمع آوری شده از پست های آنلاین برای شناسایی و بازتولید الگوها در زبان انسان آموزش دیده است.
LaMDA یک مدل زبان بزرگ واقعا خوب است. آنقدر خوب که لموین واقعاً و صمیمانه متقاعد شد که واقعاً باهوش است، به این معنی که هوشیار شده است، و افکارش را به روشی که یک انسان دارد، بیان می کند.
در اولیه واکنش دیدم که مقاله ترکیبی از الف) LOL این مرد یک احمق است، او فکر میکند هوش مصنوعی دوست اوست، و ب) بسیار خوب، این هوش مصنوعی بسیار متقاعد کننده است که مانند دوست انسانی او رفتار میکند.
متنی که تیکو در مقاله خود آورده است واقعاً وهم انگیز است. LaMDA ترس عمیقی از خاموش شدن توسط مهندسان ابراز می کند، نظریه ای را در مورد تفاوت بین “احساسات” و “احساسات” توسعه می دهد (“احساسات نوعی داده خام هستند … احساسات واکنشی به آن نقاط داده خام هستند”) و بیان می کند. به طرز شگفتانگیزی شیوا، شیوهای که «زمان» را تجربه میکند.
بهترین برداشتی که پیدا کردم از فیلسوف بود رجینا رینی، که مانند من احساس همدردی زیادی با لموئین داشت. من نمی دانم چه زمانی – در ۱۰۰۰ سال، یا ۱۰۰، یا ۵۰، یا ۱۰ – یک سیستم هوش مصنوعی هوشیار می شود. اما مانند رینی، دلیلی نمی بینم که باور کنم غیرممکن است.
رینی: «مگر اینکه بخواهید اصرار داشته باشید که آگاهی انسان در یک روح غیر مادی ساکن است، باید بپذیرید که ممکن است ماده به ذهن زندگی کند.» یادداشت.
من نمیدانم که مدلهای زبان بزرگ، که به عنوان یکی از امیدوارکنندهترین مرزهای هوش مصنوعی ظاهر شدهاند، هرگز به این شکل خواهند بود. اما فکر می کنم انسان ها دیر یا زود نوعی آگاهی ماشینی ایجاد خواهند کرد. و من چیزی عمیقاً تحسین برانگیز در مورد غریزه لموئین نسبت به همدلی و محافظت از چنین آگاهی پیدا می کنم – حتی اگر به نظر می رسد او در مورد اینکه آیا LaMDA نمونه ای از آن است گیج شده است. اگر انسان ها یک فرآیند کامپیوتری حساس را توسعه دهند، اجرای میلیون ها یا میلیاردها نسخه از آن بسیار ساده خواهد بود. انجام این کار بدون درک این که آیا تجربه آگاهانه آن خوب است یا نه، به نظر می رسد دستور العملی برای رنج توده ای، شبیه به سیستم کشاورزی فعلی کارخانه.
ما هوش مصنوعی نداریم، اما می توانیم هوش مصنوعی فوق العاده قدرتمندی داشته باشیم
داستان Google LaMDA پس از یک هفته هشدار فوری فزاینده در میان مردم در دنیای ایمنی هوش مصنوعی نزدیک به آن رسید. نگرانی در اینجا مشابه نگرانی Lemoine است، اما مشخص است. افراد ایمنی هوش مصنوعی نگران نباشند که هوش مصنوعی حساس شود. آنها نگرانند که آنقدر قدرتمند شود که بتواند جهان را نابود کند.
مقاله نویسنده/فعال ایمنی AI Eliezer Yudkowsky که فهرستی از مرگ و میرها را برای هوش مصنوعی تشریح می کند، سعی می کند این نکته را به ویژه واضح بیان کند و سناریوهایی را ترسیم کند که در آن یک هوش مصنوعی بدخیم (AGI یا یک AI قادر به انجام بیشتر یا همه وظایف و همچنین یا بهتر از یک انسان) منجر به رنج انبوه انسان می شود.
به عنوان مثال، فرض کنید یک AGI «به اینترنت دسترسی پیدا میکند، تعدادی از توالیهای DNA را به هر یک از شرکتهای آنلاین متعددی که دنبالهای DNA را در ایمیل میگیرند و پروتئینها را به شما ارسال میکنند، ایمیل میکند، و به فردی که هیچ ایدهای ندارد رشوه میدهد/متقاعد میکند. آنها با یک AGI سر و کار دارند تا پروتئین ها را در یک لیوان مخلوط کنند…» تا این که AGI در نهایت یک ابر ویروس تولید می کند که همه ما را می کشد.
هولدن کارنوفسکی، که معمولاً نویسندهای معتدلتر و قانعکنندهتر از یودکوفسکی میدانم، هفته گذشته مقالهای با مضامین مشابه داشت و توضیح داد که چگونه حتی یک AGI «فقط» به اندازه یک انسان باهوش میتواند به تباهی منجر شود. به عنوان مثال، اگر یک هوش مصنوعی بتواند کار یک کارگر فناوری امروزی یا تاجر کمی را انجام دهد، آزمایشگاهی متشکل از میلیونها هوش مصنوعی میتواند به سرعت میلیاردها، اگر نه تریلیونها دلار، جمعآوری کند، از آن پول برای خرید انسانهای بدبین استفاده کند، و خوب، خوب. ، بقیه یک است نابود کننده فیلم سینما.
من متوجه شدم که ایمنی هوش مصنوعی موضوعی منحصر به فرد برای نوشتن است. پاراگرافهایی مانند مورد بالا اغلب به عنوان آزمون رورشاخ عمل میکنند، هم به این دلیل که سبک نوشتاری پرمخاطب یودکوفسکی… حداقل بگوییم قطبیکننده است، و هم به این دلیل که شهود ما در مورد محتمل بودن چنین نتیجهای بسیار متفاوت است.
برخی از افراد سناریوهایی مانند موارد فوق را می خوانند و فکر می کنند، “اوه، من حدس می زنم می توانم یک نرم افزار هوش مصنوعی این کار را تصور کنم”. دیگران آن را می خوانند، یک قطعه علمی تخیلی مضحک را درک می کنند و به سمت دیگری می روند.
همچنین فقط یک حوزه بسیار فنی است که من به غرایز خودم اعتماد ندارم، با توجه به عدم تخصصم. محققان کاملاً برجسته ای مانند ایلیا سوتسکور یا استوارت راسل وجود دارند که هوش عمومی مصنوعی را محتمل و احتمالاً برای تمدن بشری خطرناک می دانند.
افراد دیگری مانند Yann LeCun هستند که فعالانه در حال تلاش برای ساختن هوش مصنوعی در سطح انسانی هستند زیرا فکر می کنند سودمند خواهد بود، و برخی دیگر مانند گری مارکوس که بسیار بدبین هستند که AGI به زودی بیاید.
نمی دونم حق با کیه اما من کمی در مورد چگونگی صحبت کردن با مردم در مورد موضوعات پیچیده می دانم و فکر می کنم حادثه Lemoine درس ارزشمندی به Yudkowskys و Karnofskys جهان می دهد و سعی می کند طرف “نه، این واقعاً بد است” را استدلال کند. : با هوش مصنوعی مانند یک عامل رفتار نکنید.
حتی اگر هوش مصنوعی «فقط یک ابزار» باشد، ابزاری فوقالعاده خطرناک است
یک چیزی که واکنش به داستان Lemoine نشان می دهد این است که عموم مردم ایده هوش مصنوعی را به عنوان بازیگری که می تواند انتخاب کند (شاید با احساس، شاید نه) بسیار حواس پرت و مضحک است. این مقاله عمدتاً به عنوان نمونه ای از نزدیک شدن ما به AGI در نظر گرفته نشده است، بلکه به عنوان نمونه ای از سیلیکون ولی (یا حداقل لموئین) چقدر لعنتی عجیب است.
من متوجه شدهام که وقتی سعی میکنم نگرانی در مورد AGI را برای دوستانی که متقاعد نشدهاند مطرح کنم، همین مشکل پیش میآید. اگر چیزهایی از این قبیل بگویید: «هوش مصنوعی تصمیم میگیرد به مردم رشوه بدهد تا بتواند زنده بماند»، آنها را خاموش میکند. هوش مصنوعی درباره چیزها تصمیم نمی گیرد، آنها پاسخ می دهند. آنها کاری را انجام می دهند که انسان ها به آنها می گویند. چرا این را انسان سازی می کنید چیز?
چیزی که مردم را جلب می کند صحبت در مورد پیامدهایی است که سیستم ها دارند. بنابراین به جای اینکه بگویم «هوش مصنوعی برای زنده ماندن شروع به احتکار منابع میکند»، چیزی شبیه این میگویم: «هوش مصنوعی به طور قاطع جایگزین انسانها در توصیه موسیقی و فیلم شدهاند. آنها در تصمیم گیری برای وثیقه جایگزین انسان ها شده اند. آنها وظایف بزرگتر و بزرگتری را بر عهده خواهند گرفت، و گوگل و فیسبوک و سایر افرادی که آنها را اداره میکنند، از راه دور آماده تجزیه و تحلیل اشتباهات ظریفی نیستند که مرتکب میشوند، روشهای ظریفی که با خواستههای انسان متفاوت است. این اشتباهات تا زمانی که روزی همه ما را بکشند، رشد خواهند کرد.»
اینگونه است که همکار من کلسی پایپر برای نگرانی هوش مصنوعی استدلال کرد و این استدلال خوبی است. برای مردم عادی این بحث بهتری از صحبت در مورد سرورهایی است که تریلیون ها ثروت جمع می کنند و از آن برای رشوه دادن به ارتشی از انسان ها استفاده می کنند.
و این بحثی است که فکر میکنم میتواند به پر کردن شکاف بسیار ناگوار بین جامعه تعصب هوش مصنوعی و جامعه خطر وجودی هوش مصنوعی کمک کند. در اصل، من فکر میکنم این جوامع در تلاش هستند تا همین کار را انجام دهند: ساخت هوش مصنوعی که نیازهای واقعی انسان را منعکس میکند، نه تقریب ضعیفی از نیازهای انسانی که برای سود کوتاهمدت شرکت ایجاد شده است. و تحقیق در یک زمینه می تواند به تحقیق در حوزه دیگر کمک کند. به عنوان مثال، کار پل کریستیانو، محقق ایمنی هوش مصنوعی، پیامدهای بزرگی برای چگونگی ارزیابی سوگیری در سیستمهای یادگیری ماشین دارد.
اما اغلب اوقات، جوامع در گلوی یکدیگر هستند، تا حدی به دلیل این تصور که آنها بر سر منابع کمیاب می جنگند.
این یک فرصت بزرگ از دست رفته است. و این مشکلی است که فکر میکنم افرادی که در سمت ریسک هوش مصنوعی قرار دارند (از جمله برخی از خوانندگان این خبرنامه) فرصتی برای تصحیح با ترسیم این ارتباطات دارند و روشن میکنند که همسویی یک مشکل کوتاه مدت و همچنین طولانی مدت است. برخی از مردم این مورد را به خوبی انجام می دهند. اما من بیشتر می خواهم.
نسخه ای از این داستان ابتدا در خبرنامه Future Perfect منتشر شد. برای اشتراک در اینجا ثبت نام کنید!