تیم های تعصب هوش مصنوعی و ایمنی هوش مصنوعی بر اساس هوش مصنوعی تقسیم می شوند


این روزها تیم‌هایی از محققان در دانشگاه‌ها و آزمایشگاه‌های اصلی هوش مصنوعی وجود دارند که روی مشکل اخلاق هوش مصنوعی یا نگرانی‌های اخلاقی ناشی از سیستم‌های هوش مصنوعی کار می‌کنند. این تلاش‌ها به‌ویژه بر نگرانی‌های مربوط به حفظ حریم خصوصی داده‌ها و آنچه به عنوان تعصب هوش مصنوعی شناخته می‌شود متمرکز است – سیستم‌های هوش مصنوعی که با استفاده از داده‌های آموزشی با تعصب اغلب در داخل، نتایج نژادپرستانه یا جنسیتی ایجاد می‌کنند، مانند امتناع از محدودیت‌های کارت اعتباری زنان که اعطا می‌کنند. مردی با شرایط یکسان

همچنین تیم‌هایی از محققان در دانشگاه‌ها و در برخی از آزمایشگاه‌های هوش مصنوعی (هر چند کمتر) وجود دارند که روی مشکل همسویی هوش مصنوعی کار می‌کنند. این خطری است که با قوی‌تر شدن سیستم‌های هوش مصنوعی ما، روش‌های نظارتی و رویکردهای آموزشی ما برای انجام کاری که واقعاً می‌خواهیم، ​​بی‌معنی می‌شوند. در نهایت، ما آینده بشریت را به سیستم‌هایی با اهداف و اولویت‌هایی می‌سپاریم که نمی‌فهمیم و دیگر نمی‌توانیم بر آنها تأثیر بگذاریم.

امروزه، اغلب به این معنی است که اخلاق‌دانان هوش مصنوعی و کسانی که در راستای هوش مصنوعی هستند، روی مشکلات مشابهی کار می‌کنند. بهبود درک عملکرد داخلی سیستم‌های هوش مصنوعی امروزی یکی از رویکردهای حل هم‌ترازی هوش مصنوعی است و برای درک زمان و مکان گمراه‌کننده یا تبعیض‌آمیز مدل‌ها بسیار مهم است.

و از برخی جهات، همسویی هوش مصنوعی فقط مشکل سوگیری هوش مصنوعی (به طرز وحشتناکی) بزرگی است: ما قدرت تصمیم‌گیری اجتماعی بیشتری را به سیستم‌هایی اختصاص می‌دهیم که به طور کامل نمی‌فهمیم و همیشه نمی‌توانیم آن‌ها را ممیزی کنیم، و قانون‌گذاران نمی‌دانند. تقریباً به اندازه کافی خوب نمی دانم که به طور مؤثر تنظیم کند.

همانطور که هوش مصنوعی مدرن می تواند چشمگیر به نظر برسد، در حال حاضر آن سیستم های هوش مصنوعی به یک معنا “احمقانه” هستند. آنها دامنه بسیار باریک و قدرت محاسباتی محدودی دارند. تا جایی که می‌توانند آسیب‌رسانی کنند، عمدتاً این کار را یا با تکرار آسیب‌ها در مجموعه داده‌های مورد استفاده برای آموزش آنها یا از طریق سوءاستفاده عمدی توسط بازیگران بد انجام می‌دهند.

اما هوش مصنوعی برای همیشه احمق نخواهد ماند، زیرا افراد زیادی با پشتکار تلاش می کنند تا آن را تا حد امکان هوشمند کنند.

بخشی از آنچه سیستم‌های هوش مصنوعی فعلی را در خطراتی که دارند محدود می‌کند این است که مدل خوبی از جهان ندارند. با این حال، تیم‌ها برای آموزش مدل‌هایی کار می‌کنند انجام دادن درک خوبی از دنیا داشته باشید دلیل دیگر محدود بودن سیستم‌های کنونی این است که با اهرم‌های قدرت در جهان ما یکپارچه نشده‌اند – اما تیم‌های دیگر بسیار تلاش می‌کنند تا پهپادها، بمب‌ها، کارخانه‌ها و ابزارهای ساخت دقیق مجهز به هوش مصنوعی بسازند.

این پویایی – جایی که ما در حال پیشروی برای هوشمندتر و هوشمندتر کردن سیستم‌های هوش مصنوعی هستیم، بدون اینکه واقعاً اهداف آنها را درک کنیم یا روش خوبی برای حسابرسی یا نظارت بر آنها داشته باشیم – ما را برای فاجعه آماده می‌کند.

و نه در آینده ای دور، بلکه به محض چند دهه آینده. به همین دلیل بسیار مهم است که تحقیقات اخلاقی هوش مصنوعی بر مدیریت پیامدهای هوش مصنوعی مدرن متمرکز باشد و تحقیقات همسویی هوش مصنوعی بر آمادگی برای سیستم‌های قدرتمند آینده متمرکز باشد.

نه فقط دو روی یک سکه

بنابراین، آیا این دو گروه از کارشناسانی که مسئول ایمن سازی هوش مصنوعی هستند، واقعاً با هم کنار می آیند؟

هاهاها، نه

اینها دو اردو هستند، و آنها دو اردوگاه هستند که گاهی به شدت از یکدیگر متنفرند.

از منظر افرادی که روی اخلاق هوش مصنوعی کار می کنند، کارشناسانی که بر روی همسویی تمرکز می کنند، مشکلات واقعی را که ما امروز تجربه می کنیم نادیده می گیرند و به فکر وسواس در مورد مشکلات آینده هستند که ممکن است هرگز به وجود نیایند. اغلب، اردوگاه همسویی حتی نمی‌داند که افراد اخلاقی روی چه مشکلاتی کار می‌کنند.

جک کلارک، یکی از بنیانگذاران آزمایشگاه تحقیقاتی ایمنی هوش مصنوعی Anthropic و مدیر سابق سیاستگذاری در “بعضی از افرادی که روی خط‌مشی بلندمدت یا سبک AGI کار می‌کنند، معمولا مشکلات فوری استقرار/مضرات هوش مصنوعی را نادیده می‌گیرند، به حداقل می‌رسانند، یا فقط در نظر نمی‌گیرند.” OpenAI، نوشت این آخر هفته.

با این حال، از دیدگاه بسیاری از افراد همسو با هوش مصنوعی، بسیاری از کارهای «اخلاق» در آزمایشگاه‌های برتر هوش مصنوعی است. اساسا فقط روابط عمومی را تجلیل کرد، عمدتاً به گونه ای طراحی شده است که شرکت های فناوری بتوانند بگویند که نگران اخلاق هستند و از شرمساری روابط عمومی اجتناب کنند – اما هیچ کاری برای تغییر مسیر تصویر بزرگ توسعه هوش مصنوعی انجام نمی دهند. در نظرسنجی از کارشناسان اخلاق هوش مصنوعی، اکثر آنها می گویند که انتظار ندارند رویه های توسعه در شرکت های برتر برای اولویت دادن به نگرانی های اخلاقی و اجتماعی تغییر کند.

(برای روشن شدن، بسیاری از افراد همسو با هوش مصنوعی همچنین این شکایت را به دیگران در اردوگاه همسویی هدایت کنید. افراد زیادی در حال کار بر روی قدرتمندتر و خطرناک‌تر کردن سیستم‌های هوش مصنوعی هستند، با توجیه‌های مختلف برای اینکه چگونه این امر به یادگیری نحوه ایمن‌تر کردن آنها کمک می‌کند. از منظر بدبینانه تر، تقریباً تمام کارهای اخلاقی هوش مصنوعی، ایمنی هوش مصنوعی و همسویی با هوش مصنوعی در واقع فقط کار روی ساختن هوش مصنوعی قوی تر است – اما با روابط عمومی بهتر.)

بسیاری از محققان اخلاق هوش مصنوعی، به نوبه خود، می گویند که دوست دارند کارهای بیشتری انجام دهند، اما فرهنگ های شرکتی که آنها را خیلی جدی نمی گیرند و به عنوان محقق سابق اخلاق هوش مصنوعی گوگل، آنها را به عنوان یک اولویت فنی کلیدی در نظر نمی گیرند، مانع شده اند. مردیث ویتاکر در یک توییت ذکر شده است:

اکوسیستم هوش مصنوعی سالم تر

نبرد اخلاق هوش مصنوعی/همسویی هوش مصنوعی لازم نیست وجود داشته باشد. به هر حال، محققان اقلیم که اثرات امروزی گرمایش را مطالعه می کنند، تمایلی به محکوم کردن شدید محققان اقلیم که در حال مطالعه اثرات بلندمدت هستند، نیستند، و محققانی که بر روی پیش بینی بدترین سناریوها کار می کنند، تمایلی به این ادعا ندارند که کسی که روی امواج گرما کار می کند. امروز وقت تلف کردنه

شما به راحتی می توانید دنیایی را تصور کنید که در آن زمینه هوش مصنوعی مشابه باشد – و برای آن بسیار سالم تر.

چرا نیست که دنیایی که در آن هستیم؟

غریزه من این است که دعوای درونی هوش مصنوعی به درک بسیار محدود عمومی از آنچه در هوش مصنوعی اتفاق می افتد مربوط می شود. وقتی توجه و منابع عمومی کمیاب است، مردم پروژه‌های نادرست را تهدیدکننده می‌بینند – در نهایت، آن پروژه‌های دیگر درگیر مشارکت می‌شوند که به قیمت هزینه خودشان تمام می‌شود.

بسیاری از مردم – حتی بسیاری از محققان هوش مصنوعی – نگران تأثیرات ایمنی کار خود نیستند خیلی جدی.

گاهی اوقات رهبران به دلیل اعتقاد صادقانه به اینکه هوش مصنوعی برای جهان بسیار خوب خواهد بود، نگرانی‌های درازمدت ایمنی را نادیده می‌گیرند، بنابراین کاری که باید انجام داد این است که سرعت توسعه را به طور کامل انجام دهیم.

گاهی اوقات از این باور است که هوش مصنوعی به هیچ وجه دگرگون کننده نخواهد بود، حداقل در طول زندگی ما، و بنابراین نیازی به این همه هیاهو نیست.

با این حال، گاهی اوقات از روی بدبینی است – کارشناسان می دانند که هوش مصنوعی چقدر قدرتمند است، و آنها نظارت یا پاسخگویی نمی خواهند زیرا آنها فکر می کنند که از هر نهادی که آنها را پاسخگو می کند برتر هستند.

عموم مردم به خوبی از این موضوع آگاه هستند که کارشناسان نگرانی‌های ایمنی جدی در مورد سیستم‌های هوش مصنوعی پیشرفته دارند و اکثر مردم نمی‌دانند کدام پروژه‌ها اولویت‌های موفقیت بلندمدت همسویی هوش مصنوعی هستند، نگرانی‌های مربوط به سوگیری هوش مصنوعی، و اینکه اخلاق‌گرایان هوش مصنوعی دقیقاً چه کاری انجام می‌دهند. به هر حال روز در داخل، افراد دارای اخلاق هوش مصنوعی اغلب در سازمان‌هایی که در آن کار می‌کنند منزوی و منزوی می‌شوند و مجبورند فقط برای اینکه همکارانشان کارشان را جدی بگیرند، مبارزه کنند.

این شکاف‌های بزرگ با هوش مصنوعی به‌عنوان حوزه‌ای است که، به نظر من، بیشتر شکاف‌ها را بین محققان ایمنی کوتاه‌مدت و بلندمدت هوش مصنوعی ایجاد می‌کند. در یک زمینه سالم، فضای زیادی برای افراد وجود دارد تا روی مشکلات مختلف کار کنند.

اما در میدانی که تلاش می‌کند خودش را تعریف کند و می‌ترسد که اصلاً موقعیتی برای دستیابی به چیزی نداشته باشد؟ نه چندان

نسخه ای از این داستان ابتدا در خبرنامه Future Perfect منتشر شد. برای اشتراک در اینجا ثبت نام کنید!



دیدگاهتان را بنویسید