مارک زاکربرگ می خواهد دستیار صوتی بسازد که الکسا و سیری را از بین ببرد


متا، شرکتی که قبلاً فیس‌بوک نامیده می‌شد، استراتژی بلندمدت خود را از برنامه‌های رسانه‌های اجتماعی خود تغییر داده و روی متاورس متمرکز شده است، دنیای مجازی که در آن افرادی که از هدست‌های واقعیت افزوده/مجازی استفاده می‌کنند می‌توانند با آواتارهای یکدیگر صحبت کنند، بازی کنند. جلسات برگزار کنید و در غیر این صورت در فعالیت های اجتماعی شرکت کنید.

این پرسش‌های زیادی را ایجاد می‌کند، مانند این که این برای شرکتی که نزدیک به دو دهه بر رسانه‌های اجتماعی متمرکز بوده است، چه معنایی دارد، آیا متا می‌تواند به هدف جدید خود یعنی ساختن آینده‌ای متاواسر دست یابد و آن آینده چگونه خواهد بود. برای میلیاردها نفری که هر روز از محصولات متا استفاده می کنند. روز چهارشنبه، مارک زاکربرگ، مدیر عامل متا، در طی یک سخنرانی کلیدی درباره آخرین پیشرفت‌های این شرکت در هوش مصنوعی پاسخ‌هایی را ارائه کرد.

یکی از اهداف اصلی متا توسعه فناوری هوش مصنوعی دستیار صوتی پیشرفته – فکر کنید الکسا یا سیری، اما هوشمندتر – است که این شرکت قصد دارد از آن در محصولات AR/VR خود مانند هدست Quest (Oculus سابق)، نمایشگر هوشمند پورتال و Ray استفاده کند. -عینک هوشمند را ممنوع می کند.

زاکربرگ می‌گوید: «انواع تجربیاتی که در فراجهان خواهید داشت فراتر از آنچه امروز ممکن است است. این امر مستلزم پیشرفت در طیف وسیعی از زمینه‌ها، از دستگاه‌های سخت‌افزاری جدید گرفته تا نرم‌افزار برای ساختن و کاوش جهان‌ها است. و کلید باز کردن بسیاری از این پیشرفت‌ها هوش مصنوعی است.»

این ارائه در یکی از چالش برانگیزترین لحظات تاریخ شرکت انجام می شود. قیمت سهام متا افت تاریخی داشته است، مدل تبلیغاتی آن با تغییرات حریم خصوصی موبایل اپل متزلزل شده است، و با تهدید احتمالی مقررات سیاسی مواجه است.

بنابراین منطقی است که این شرکت به آینده نگاه می کند، که در آن متا امیدوار است یک هوش مصنوعی پیشرفته برای پردازش زبان ارائه کند.

دو نفر کارتونی بدون پا بر فراز یک آب و یک افق شناورند.

مارک زاکربرگ (سمت چپ) – به شکل آواتار واقعیت مجازی – نشان می‌دهد که چگونه ابزارهای هوش مصنوعی جدید شرکتش به شما اجازه می‌دهند با بیان آنچه می‌خواهید ببینید، محیط‌های مجازی ایجاد کنید.
متا

به گفته سخنگوی متا، این زمانی است که متا برای اولین بار رویدادی برای نمایش پیشرفت های هوش مصنوعی خود برگزار کرده است. همانطور که گفته شد، این شرکت اذعان می کند که این هوش مصنوعی هنوز در حال توسعه است و هنوز به طور گسترده استفاده نشده است. تظاهرات اکتشافی است. ویدئوهای نمایشی متا در روز چهارشنبه شامل موارد سلب مسئولیت در پایین بود که بسیاری از تصاویر و نمونه‌ها صرفاً برای اهداف تصویری هستند و نه محصولات واقعی. همچنین: آواتارها در متاوره هنوز پا ندارند.

با این حال، اگر متا به محققان علوم کامپیوتر در کلاس جهانی خود فشار بیاورد تا این ابزارها را توسعه دهند، شانس زیادی برای موفقیت وجود دارد. و در صورت تحقق کامل، این فناوری ها می توانند نحوه ارتباط ما را چه در زندگی واقعی و چه در واقعیت مجازی تغییر دهند. این پیشرفت‌ها همچنین نگرانی‌های مهمی را در مورد حفظ حریم خصوصی درباره نحوه ذخیره و اشتراک‌گذاری داده‌های شخصی بیشتر جمع‌آوری‌شده از دستگاه‌های پوشیدنی مجهز به هوش مصنوعی ایجاد می‌کند.

در اینجا چند نکته درباره نحوه ساخت دستیار صوتی متا با استفاده از مدل‌های جدید هوش مصنوعی و همچنین نگرانی‌های مربوط به حریم خصوصی و اخلاقی که یک متاورس ابرقدرت هوش مصنوعی ایجاد می‌کند، وجود دارد.

متا در حال ساخت دستیار صوتی بلندپروازانه خود برای AR/VR است

روز چهارشنبه، مشخص شد که متا دستیارهای صوتی را بخش مهمی از متاورس می‌داند و می‌داند که دستیار صوتی آن باید بیشتر از آنچه اکنون داریم، مکالمه‌ای باشد. به عنوان مثال، اکثر دستیارهای صوتی به راحتی می توانند به این سوال پاسخ دهند: “امروز هوا چگونه است؟” اما اگر یک سوال بعدی بپرسید، مانند “آیا هوا گرمتر از هفته گذشته است؟” دستیار صوتی احتمالاً دچار مشکل می شود.

متا می‌خواهد دستیار صوتی‌اش در جمع‌آوری سرنخ‌های متنی در مکالمات، به همراه سایر اطلاعاتی که می‌تواند درباره بدن فیزیکی ما مانند نگاه، حالات چهره و حرکات دست جمع‌آوری کند، بهتر عمل کند.

زاکربرگ روز چهارشنبه گفت: “برای حمایت از خلق و اکتشاف واقعی جهان، ما باید فراتر از وضعیت فعلی هنر دستیاران هوشمند پیشرفت کنیم.”

در حالی که رقبای فناوری بزرگ متا – آمازون، اپل و گوگل – در حال حاضر محصولات دستیار صوتی محبوبی را، چه در موبایل و چه به عنوان سخت افزار مستقل مانند الکسا، دارند، متا ندارد (به غیر از برخی عملکردهای محدود فرمان صوتی در Ray-Bans، Oculus، و دستگاه های پورتال).

زاکربرگ گفت: «وقتی ما عینک روی صورتمان داشته باشیم، این اولین باری است که یک سیستم هوش مصنوعی می‌تواند جهان را واقعاً از منظر ما ببیند – ببیند چه می‌بینیم، چه چیزی را بشنویم که می‌شنویم و بیشتر.» بنابراین توانایی و انتظاری که ما از سیستم‌های هوش مصنوعی داریم بسیار بالاتر خواهد بود.

برای برآورده کردن این انتظارات، این شرکت می‌گوید که در حال توسعه CAIRaoke، یک مدل عصبی هوش مصنوعی خودآموز (که یک مدل آماری مبتنی بر شبکه‌های بیولوژیکی در مغز انسان است) برای تقویت دستیار صوتی خود است. این مدل از «یادگیری خود نظارتی» استفاده می‌کند، به این معنی که هوش مصنوعی به جای آموزش روی مجموعه داده‌های بزرگ مانند بسیاری از مدل‌های هوش مصنوعی دیگر، اساساً می‌تواند خودش را آموزش دهد.

Joëlle Pineau، مدیر عامل هوش مصنوعی متا، به Recode گفت: «قبلا، همه بلوک‌ها به طور جداگانه ساخته می‌شدند، و سپس به نوعی آنها را به هم می‌چسبانید. زمانی که به سمت یادگیری خود نظارتی حرکت می کنیم، توانایی یادگیری کل مکالمه را داریم.

زاکربرگ به عنوان یکی از نمونه‌هایی از این که چگونه می‌توان از این فناوری استفاده کرد، – به شکل آواتار واقعیت مجازی – ابزاری را به نمایش گذاشت که شرکت روی آن کار می‌کند به نام «BuilderBot» که به شما امکان می‌دهد آنچه را که می‌خواهید در واقعیت مجازی خود ببینید (یعنی «من طبق گفته شرکت، “می خواهید یک درخت نخل را ببینید”) و یک درخت نخل تولید شده توسط هوش مصنوعی در جایی که می خواهید بر اساس آنچه می گویید، نگاه شما، کنترل کننده ها/دست های شما و آگاهی کلی از زمینه ظاهر می شود.

متا هنوز باید تحقیقات بیشتری انجام دهد تا این امکان پذیر باشد، و در حال مطالعه چیزی است که “ادراک خود محور” نامیده می شود، که در مورد درک جهان ها از منظر اول شخص است تا این را بسازد. در حال حاضر، این شرکت در حال آزمایش فناوری این مدل در نمایشگرهای هوشمند پورتال خود است.

در نهایت، این شرکت همچنین امیدوار است که بتواند ورودی‌های فراتر از گفتار را بگیرد – مانند حرکت، موقعیت و زبان بدن کاربر، تا دستیارهای مجازی هوشمندتری بسازد که بتوانند خواسته‌های کاربران را پیش‌بینی کنند.

هوش مصنوعی در متاورژن چالش های اخلاقی را به همراه خواهد داشت

نگرانی‌ها و شکست‌های مربوط به حفظ حریم خصوصی متا و سایر شرکت‌های بزرگ فناوری را تحت تأثیر قرار داده است، زیرا مدل‌های کسب‌وکار آن‌ها بر اساس جمع‌آوری داده‌های کاربران ساخته شده است: تاریخچه مرور، علایق، ارتباطات شخصی و موارد دیگر.

کارشناسان حفظ حریم خصوصی می‌گویند که این نگرانی‌ها در مورد AR/VR حتی بیشتر است، زیرا می‌تواند داده‌های حساس‌تری مانند حرکات چشم، حالات چهره و زبان بدن ما را ردیابی کند.

برخی از اخلاق‌گرایان AR/VR و AI نگران این هستند که این ورودی‌های داده چقدر شخصی می‌شوند، چه نوع پیش‌بینی‌هایی می‌تواند با این ورودی‌ها انجام دهد و چگونه آن داده‌ها به اشتراک گذاشته می‌شوند.

کاویا پرلمن، بنیانگذار XR Safety Initiative، یک سازمان غیرانتفاعی که می‌گوید: «داده‌های ردیابی چشم، داده‌های نگاه، به معنای واقعی کلمه قادر به تعیین کمیت اینکه آیا محرک‌های ناشی از برانگیختگی جنسی یا نگاه محبت‌آمیز را احساس می‌کنید – همه اینها نگران‌کننده هستند. مدافع توسعه اخلاقی فناوری هایی مانند VR است. “چه کسی به این داده ها دسترسی دارد؟ آنها با این داده ها چه کار می کنند؟»

در حال حاضر، پاسخ به این سؤالات کاملاً روشن نیست، اگرچه متا می گوید متعهد به رسیدگی به نگرانی ها است.

زاکربرگ گفت که این شرکت با کارشناسان حقوق بشر، حقوق مدنی و حریم خصوصی برای ایجاد «سیستم‌هایی مبتنی بر انصاف، احترام و کرامت انسانی» کار می‌کند.

اما با توجه به سوابق این شرکت در نقض حریم خصوصی، برخی از کارشناسان اخلاق فناوری در این مورد تردید دارند.

“از دیدگاه کاملا علمی، من واقعا هیجان زده هستم. اما چون متا است، من می ترسم.

در پاسخ به نگرانی های مردم در مورد حریم خصوصی در متاورس، Meta’s Pineau گفت که با دادن کنترل به کاربران بر روی داده هایی که به اشتراک می گذارند، این شرکت می تواند به کاهش نگرانی مردم کمک کند.

«افراد زمانی مایل به اشتراک گذاری اطلاعات هستند که ارزشی وجود داشته باشد که از آن استخراج می شود. بنابراین، اگر به آن نگاه کنید، مفهوم استقلال، کنترل و شفافیت چیزی است که واقعاً به کاربران اجازه می دهد تا کنترل بیشتری بر نحوه استفاده از داده های خود داشته باشند.

جدای از نگرانی‌های مربوط به حریم خصوصی، برخی از کاربران Meta AR/VR نگران هستند که اگر یک متاورس مجهز به هوش مصنوعی بلند شود، ممکن است برای همه قابل دسترس و ایمن نباشد. در حال حاضر، برخی از زنان از مواجهه با آزار و اذیت جنسی در متاورس شکایت کرده‌اند، مانند زمانی که یک آزمایش‌کننده بتای اپلیکیشن اجتماعی واقعیت مجازی متا Horizon Worlds گزارش داد که توسط سایر کاربران به‌طور مجازی مورد آزار و اذیت قرار گرفته است. متا از آن زمان حباب ایمنی مجازی ۴ فوتی را در اطراف آواتارها ایجاد کرد تا از “تعاملات ناخواسته” جلوگیری کند.

اگر متا به هدف خود در استفاده از هوش مصنوعی برای ایجاد محیط‌های AR/VR خود در زندگی روزمره‌ی ما همه‌جانبه‌تر و یکپارچه‌تر برسد، احتمالاً مشکلات بیشتری در مورد دسترسی، ایمنی و تبعیض ظاهر می‌شود. و اگرچه فیس‌بوک می‌گوید که از همان ابتدا به این نگرانی‌ها فکر می‌کند، سابقه آن با سایر محصولاتش اطمینان‌بخش نیست.

رژیم آنلاین دکتر روشن ضمیر https://rdiet.ir/ رژیم کتوژنیک دکتر روشن ضمیر

دیدگاهتان را بنویسید