متا، شرکتی که قبلاً فیسبوک نامیده میشد، استراتژی بلندمدت خود را از برنامههای رسانههای اجتماعی خود تغییر داده و روی متاورس متمرکز شده است، دنیای مجازی که در آن افرادی که از هدستهای واقعیت افزوده/مجازی استفاده میکنند میتوانند با آواتارهای یکدیگر صحبت کنند، بازی کنند. جلسات برگزار کنید و در غیر این صورت در فعالیت های اجتماعی شرکت کنید.
این پرسشهای زیادی را ایجاد میکند، مانند این که این برای شرکتی که نزدیک به دو دهه بر رسانههای اجتماعی متمرکز بوده است، چه معنایی دارد، آیا متا میتواند به هدف جدید خود یعنی ساختن آیندهای متاواسر دست یابد و آن آینده چگونه خواهد بود. برای میلیاردها نفری که هر روز از محصولات متا استفاده می کنند. روز چهارشنبه، مارک زاکربرگ، مدیر عامل متا، در طی یک سخنرانی کلیدی درباره آخرین پیشرفتهای این شرکت در هوش مصنوعی پاسخهایی را ارائه کرد.
یکی از اهداف اصلی متا توسعه فناوری هوش مصنوعی دستیار صوتی پیشرفته – فکر کنید الکسا یا سیری، اما هوشمندتر – است که این شرکت قصد دارد از آن در محصولات AR/VR خود مانند هدست Quest (Oculus سابق)، نمایشگر هوشمند پورتال و Ray استفاده کند. -عینک هوشمند را ممنوع می کند.
زاکربرگ میگوید: «انواع تجربیاتی که در فراجهان خواهید داشت فراتر از آنچه امروز ممکن است است. این امر مستلزم پیشرفت در طیف وسیعی از زمینهها، از دستگاههای سختافزاری جدید گرفته تا نرمافزار برای ساختن و کاوش جهانها است. و کلید باز کردن بسیاری از این پیشرفتها هوش مصنوعی است.»
این ارائه در یکی از چالش برانگیزترین لحظات تاریخ شرکت انجام می شود. قیمت سهام متا افت تاریخی داشته است، مدل تبلیغاتی آن با تغییرات حریم خصوصی موبایل اپل متزلزل شده است، و با تهدید احتمالی مقررات سیاسی مواجه است.
بنابراین منطقی است که این شرکت به آینده نگاه می کند، که در آن متا امیدوار است یک هوش مصنوعی پیشرفته برای پردازش زبان ارائه کند.
:no_upscale()/cdn.vox-cdn.com/uploads/chorus_asset/file/23266712/Screen_Shot_2022_02_23_at_2.36.10_PM.png)
به گفته سخنگوی متا، این زمانی است که متا برای اولین بار رویدادی برای نمایش پیشرفت های هوش مصنوعی خود برگزار کرده است. همانطور که گفته شد، این شرکت اذعان می کند که این هوش مصنوعی هنوز در حال توسعه است و هنوز به طور گسترده استفاده نشده است. تظاهرات اکتشافی است. ویدئوهای نمایشی متا در روز چهارشنبه شامل موارد سلب مسئولیت در پایین بود که بسیاری از تصاویر و نمونهها صرفاً برای اهداف تصویری هستند و نه محصولات واقعی. همچنین: آواتارها در متاوره هنوز پا ندارند.
با این حال، اگر متا به محققان علوم کامپیوتر در کلاس جهانی خود فشار بیاورد تا این ابزارها را توسعه دهند، شانس زیادی برای موفقیت وجود دارد. و در صورت تحقق کامل، این فناوری ها می توانند نحوه ارتباط ما را چه در زندگی واقعی و چه در واقعیت مجازی تغییر دهند. این پیشرفتها همچنین نگرانیهای مهمی را در مورد حفظ حریم خصوصی درباره نحوه ذخیره و اشتراکگذاری دادههای شخصی بیشتر جمعآوریشده از دستگاههای پوشیدنی مجهز به هوش مصنوعی ایجاد میکند.
در اینجا چند نکته درباره نحوه ساخت دستیار صوتی متا با استفاده از مدلهای جدید هوش مصنوعی و همچنین نگرانیهای مربوط به حریم خصوصی و اخلاقی که یک متاورس ابرقدرت هوش مصنوعی ایجاد میکند، وجود دارد.
متا در حال ساخت دستیار صوتی بلندپروازانه خود برای AR/VR است
روز چهارشنبه، مشخص شد که متا دستیارهای صوتی را بخش مهمی از متاورس میداند و میداند که دستیار صوتی آن باید بیشتر از آنچه اکنون داریم، مکالمهای باشد. به عنوان مثال، اکثر دستیارهای صوتی به راحتی می توانند به این سوال پاسخ دهند: “امروز هوا چگونه است؟” اما اگر یک سوال بعدی بپرسید، مانند “آیا هوا گرمتر از هفته گذشته است؟” دستیار صوتی احتمالاً دچار مشکل می شود.
متا میخواهد دستیار صوتیاش در جمعآوری سرنخهای متنی در مکالمات، به همراه سایر اطلاعاتی که میتواند درباره بدن فیزیکی ما مانند نگاه، حالات چهره و حرکات دست جمعآوری کند، بهتر عمل کند.
زاکربرگ روز چهارشنبه گفت: “برای حمایت از خلق و اکتشاف واقعی جهان، ما باید فراتر از وضعیت فعلی هنر دستیاران هوشمند پیشرفت کنیم.”
در حالی که رقبای فناوری بزرگ متا – آمازون، اپل و گوگل – در حال حاضر محصولات دستیار صوتی محبوبی را، چه در موبایل و چه به عنوان سخت افزار مستقل مانند الکسا، دارند، متا ندارد (به غیر از برخی عملکردهای محدود فرمان صوتی در Ray-Bans، Oculus، و دستگاه های پورتال).
زاکربرگ گفت: «وقتی ما عینک روی صورتمان داشته باشیم، این اولین باری است که یک سیستم هوش مصنوعی میتواند جهان را واقعاً از منظر ما ببیند – ببیند چه میبینیم، چه چیزی را بشنویم که میشنویم و بیشتر.» بنابراین توانایی و انتظاری که ما از سیستمهای هوش مصنوعی داریم بسیار بالاتر خواهد بود.
برای برآورده کردن این انتظارات، این شرکت میگوید که در حال توسعه CAIRaoke، یک مدل عصبی هوش مصنوعی خودآموز (که یک مدل آماری مبتنی بر شبکههای بیولوژیکی در مغز انسان است) برای تقویت دستیار صوتی خود است. این مدل از «یادگیری خود نظارتی» استفاده میکند، به این معنی که هوش مصنوعی به جای آموزش روی مجموعه دادههای بزرگ مانند بسیاری از مدلهای هوش مصنوعی دیگر، اساساً میتواند خودش را آموزش دهد.
Joëlle Pineau، مدیر عامل هوش مصنوعی متا، به Recode گفت: «قبلا، همه بلوکها به طور جداگانه ساخته میشدند، و سپس به نوعی آنها را به هم میچسبانید. زمانی که به سمت یادگیری خود نظارتی حرکت می کنیم، توانایی یادگیری کل مکالمه را داریم.
زاکربرگ به عنوان یکی از نمونههایی از این که چگونه میتوان از این فناوری استفاده کرد، – به شکل آواتار واقعیت مجازی – ابزاری را به نمایش گذاشت که شرکت روی آن کار میکند به نام «BuilderBot» که به شما امکان میدهد آنچه را که میخواهید در واقعیت مجازی خود ببینید (یعنی «من طبق گفته شرکت، “می خواهید یک درخت نخل را ببینید”) و یک درخت نخل تولید شده توسط هوش مصنوعی در جایی که می خواهید بر اساس آنچه می گویید، نگاه شما، کنترل کننده ها/دست های شما و آگاهی کلی از زمینه ظاهر می شود.
متا هنوز باید تحقیقات بیشتری انجام دهد تا این امکان پذیر باشد، و در حال مطالعه چیزی است که “ادراک خود محور” نامیده می شود، که در مورد درک جهان ها از منظر اول شخص است تا این را بسازد. در حال حاضر، این شرکت در حال آزمایش فناوری این مدل در نمایشگرهای هوشمند پورتال خود است.
در نهایت، این شرکت همچنین امیدوار است که بتواند ورودیهای فراتر از گفتار را بگیرد – مانند حرکت، موقعیت و زبان بدن کاربر، تا دستیارهای مجازی هوشمندتری بسازد که بتوانند خواستههای کاربران را پیشبینی کنند.
هوش مصنوعی در متاورژن چالش های اخلاقی را به همراه خواهد داشت
نگرانیها و شکستهای مربوط به حفظ حریم خصوصی متا و سایر شرکتهای بزرگ فناوری را تحت تأثیر قرار داده است، زیرا مدلهای کسبوکار آنها بر اساس جمعآوری دادههای کاربران ساخته شده است: تاریخچه مرور، علایق، ارتباطات شخصی و موارد دیگر.
کارشناسان حفظ حریم خصوصی میگویند که این نگرانیها در مورد AR/VR حتی بیشتر است، زیرا میتواند دادههای حساستری مانند حرکات چشم، حالات چهره و زبان بدن ما را ردیابی کند.
برخی از اخلاقگرایان AR/VR و AI نگران این هستند که این ورودیهای داده چقدر شخصی میشوند، چه نوع پیشبینیهایی میتواند با این ورودیها انجام دهد و چگونه آن دادهها به اشتراک گذاشته میشوند.
کاویا پرلمن، بنیانگذار XR Safety Initiative، یک سازمان غیرانتفاعی که میگوید: «دادههای ردیابی چشم، دادههای نگاه، به معنای واقعی کلمه قادر به تعیین کمیت اینکه آیا محرکهای ناشی از برانگیختگی جنسی یا نگاه محبتآمیز را احساس میکنید – همه اینها نگرانکننده هستند. مدافع توسعه اخلاقی فناوری هایی مانند VR است. “چه کسی به این داده ها دسترسی دارد؟ آنها با این داده ها چه کار می کنند؟»
در حال حاضر، پاسخ به این سؤالات کاملاً روشن نیست، اگرچه متا می گوید متعهد به رسیدگی به نگرانی ها است.
زاکربرگ گفت که این شرکت با کارشناسان حقوق بشر، حقوق مدنی و حریم خصوصی برای ایجاد «سیستمهایی مبتنی بر انصاف، احترام و کرامت انسانی» کار میکند.
اما با توجه به سوابق این شرکت در نقض حریم خصوصی، برخی از کارشناسان اخلاق فناوری در این مورد تردید دارند.
“از دیدگاه کاملا علمی، من واقعا هیجان زده هستم. اما چون متا است، من می ترسم.
در پاسخ به نگرانی های مردم در مورد حریم خصوصی در متاورس، Meta’s Pineau گفت که با دادن کنترل به کاربران بر روی داده هایی که به اشتراک می گذارند، این شرکت می تواند به کاهش نگرانی مردم کمک کند.
«افراد زمانی مایل به اشتراک گذاری اطلاعات هستند که ارزشی وجود داشته باشد که از آن استخراج می شود. بنابراین، اگر به آن نگاه کنید، مفهوم استقلال، کنترل و شفافیت چیزی است که واقعاً به کاربران اجازه می دهد تا کنترل بیشتری بر نحوه استفاده از داده های خود داشته باشند.
جدای از نگرانیهای مربوط به حریم خصوصی، برخی از کاربران Meta AR/VR نگران هستند که اگر یک متاورس مجهز به هوش مصنوعی بلند شود، ممکن است برای همه قابل دسترس و ایمن نباشد. در حال حاضر، برخی از زنان از مواجهه با آزار و اذیت جنسی در متاورس شکایت کردهاند، مانند زمانی که یک آزمایشکننده بتای اپلیکیشن اجتماعی واقعیت مجازی متا Horizon Worlds گزارش داد که توسط سایر کاربران بهطور مجازی مورد آزار و اذیت قرار گرفته است. متا از آن زمان حباب ایمنی مجازی ۴ فوتی را در اطراف آواتارها ایجاد کرد تا از “تعاملات ناخواسته” جلوگیری کند.
اگر متا به هدف خود در استفاده از هوش مصنوعی برای ایجاد محیطهای AR/VR خود در زندگی روزمرهی ما همهجانبهتر و یکپارچهتر برسد، احتمالاً مشکلات بیشتری در مورد دسترسی، ایمنی و تبعیض ظاهر میشود. و اگرچه فیسبوک میگوید که از همان ابتدا به این نگرانیها فکر میکند، سابقه آن با سایر محصولاتش اطمینانبخش نیست.
رژیم آنلاین دکتر روشن ضمیر https://rdiet.ir/ رژیم کتوژنیک دکتر روشن ضمیر