محققان برای توصیه های بهتر YouTube به جمع شلوغی روی می آورند

بینش هوشمند تری در نامه ورودی خود می خواهید؟ برای دریافت فقط آنچه در مورد هوش مصنوعی ، داده ها و رهبران امنیتی مهم است ، برای خبرنامه های هفتگی ما ثبت نام کنید. هم اکنون مشترک شوید
در سال 2019 ، تجزیه و تحلیل دانشمند سابق رایانه گوگل ، Guillaume Chaslot ، دریافت که الگوریتم توصیه YouTube به روسیه توصیه می کند امروز ویدئویی از گزارش Mueller ، گزارش دولت ایالات متحده ، که مستند انتخاب یهودیان سال 2016 است ، این ویدئو را که شامل دیدگاه ها است ، اما با این وجود ، YouTube Algorither antoadrod از بین رفته است و از این رو به نمایش درآمده است.
گوگل ، که صاحب YouTube است ، به این و سایر مظنونین الگوریتمی با مکث خط مشی و پاکسازی شرایط خدمات ریختن پاسخ می دهد. اما مطالعات اخیر موزیلا شواهدی را نشان داده است که YouTube همچنان به مطالب مرتبط با آن – از جمله اطلاعات نادرست ، خشونت و محتوای گرافیکی و گفتار نفرت – برای کاربران خود ادامه می دهد. در یک مورد ، مستند شده توسط موزیلا ، به شخصی که در حال تماشای ویدئویی در مورد حقوق نرم افزار است ، سپس ویدئویی از حقوق تپانچه توصیه شد.
تیمی از انستیتوی فدرال سوئیس فناوری لوزان (EPFL) با توجه به عدم پیشرفت و الهام بخش از روشن کردن موضوع شفافیت الگوریتمی ، بنیاد Tournesol ، یک غیرانتفاعی ، طراحی شده برای توسعه یک سیستم محتوای مبتنی بر رأی مبتنی بر جوان است. با استفاده از Tournesol ، هر کاربر YouTube می تواند یک حساب کاربری ایجاد کند و محتوا را توصیه کند که Tournesol سپس جمع می شود و به نتایج ویدیویی تبدیل می شود و نمایانگر “داوری مشترک” جامعه است.
به گفته لو نگوین هونگ ، دانشمند Ecole Polytechnique Fédérale از Lausan EPFL و یکی از همکاران Tournesol ، هدف این است که جایگزین تر و بیشتر “خیرخواهانه” برای توصیه های YouTube ارائه شود.
مقیاس پذیری AI به مرزهای خود برخورد می کند
کلاه های برق ، افزایش هزینه برای نشانگرها و تأخیر در نتیجه گیری تغییر شکل مجدد شرکت هوش مصنوعی. به سالن اختصاصی ما بپیوندید تا بدانید تیم های برتر چگونه هستند:
- تبدیل انرژی به مزیت استراتژیک
- معماری نتیجه گیری مؤثر برای افزایش واقعی از پهنای باند
- بازده رقابتی سرمایه گذاری را با سیستم های پایدار هوش مصنوعی باز کنید
فضایی را برای ماندن فراهم کنید: https://bit.ly/4mwgngo
هونگ از طریق ایمیل به VentureBeat گفت: “Tournesol نتیجه 5 سال بحث و گفتگو با همکاران من در EPFL در مورد ایمنی و اخلاق الگوریتم های بزرگ در مقیاس است.” “مانند خود YouTuber علمی ، من به سرعت نگران الگوریتم های توصیه ها و کمپین های ترول بودم … با چند دوست ، ما یک سال را در توسعه این پلتفرم در اوقات فراغت خود گذراندیم. در آوریل 2021 ، ما انجمن غیر انتفاعی Tournesol را برای حمایت از این پلتفرم ایجاد کردیم.”
توصیه هایی برای جمع آوری جمعیت
علم با سودمندی از شلوغی در هنگام درخواست توصیه به محتوا آمیخته می شود. Reddit – جایی که دید انتشارات و نظرات با توجه به تعداد “آسانسور” مشخص می شود – نمونه ای رسوایی است. مطالعات نشان می دهد که حتی یک پایبند تفسیر اضافی می تواند منجر به اثر گلوله برفی شود که در آن تعداد بیشتری از افراد در جامعه اظهار نظر می کنند.
دلایل این “اثر گلوله برفی” متفاوت است. شان تیلور ، دانشمند علوم اجتماعی در فیس بوک ، که یک مطالعه سمیناری را در مورد این موضوع انجام داد ، حدس می زند که مردم به ارتقاء تکیه می کنند تا خاطرنشان کنند که چیزی ارزش آن را دارد – به ویژه هنگامی که آنها مطمئن نیستند که چه فکر کنند. از طرف دیگر ، به گفته وی ، پست های بسیار ارزیابی شده احتمالاً بیشتر مورد توجه قرار می گیرند و بنابراین آرای بیشتر جامعه را به خود جلب می کنند.
Crowdsourcing همچنین خطر معرفی تعصبات دیگر را دارد. مصرف کنندگان به یک دلیل خاص علاقه مند هستند که احتمالاً ثبت نام کنند تا بتوانند از ارائه آراء خود اطمینان حاصل کنند. رأی ها و جوامعی که با روش های مشارکت آشنا نیستند یا وسیله ای ندارند (به عنوان مثال دسترسی به رایانه ای که با Chrome کار می کند) ممکن است ناخواسته مستثنی باشد. صرف نظر از اینکه چه کسی شرکت می کند ، مصرف کنندگان غالباً با احساسات هدایت می شوند ، میزان نظر با خودشان مطابقت دارد و اینکه آیا آنها با یک منبع اطلاعات آشنا هستند – صرف نظر از حقیقت منبع.
اعتیاد می تواند در ابعاد مختلفی رخ دهد ، همانطور که مطالعات مربوط به الگوریتم های توصیه شده سالها را نشان می دهد. در یک سند تحقیقاتی در سال 2020 ، همکاران نشان دادند که مجموعه ای محبوب از رتبه بندی فیلم می تواند به الگوریتمی منجر شود تا پیشنهادات کمتری را برای زنان به مردان ارائه دهد ، زیرا مجموعه داده ها حاوی ارزیابی های بیشتری نسبت به مردان است. کار دیگری نشان داده است که الگوریتم تبلیغات تبلیغاتی در فیس بوک در برابر جنسیت و نژاد تبعیض قائل است.
هونگ مشکلات را تصدیق می کند ، اما ادعا می کند که جمع آوری جمعیت جایگزین معقول برای سیستم های با انگیزه مالی YouTube است که اولویت “تعامل” را می دهد – یعنی. نماهای تبلیغاتی – با هزینه بیشتر شاخص های دیگر. گزارشی از سال 2019 توسط بلومبرگ ادعا می کند که رهبران یوتیوب با انتشار فیلم های سمی ، الگوریتم که برای افزایش بیننده رشد می کنند ، هشدارهای کارکنان را نادیده می گیرند.
وی گفت: “مدیریت و نظارت بر الگوریتم های بزرگ امروز امروز ناامید کننده است.” “[A]LGORITHMS بدیهی است که با کمپین های اطلاعات نادرست سازمان یافته مسلح شده اند ، [but] حتی وقتی آنها با تأمین مسلح نیستند اعتیاد آور محتوای افزایش احتباس ، الگوریتم های توصیه ها در برابر حسی گرایانه ، جدایی و محتوای عصبانی پیش بینی می شوند … [These] الگوریتم ها توسط سازندهای خارجی حسابرسی یا حسابرسی نمی شوند. “
چندین قانونگذار برای مشکل الگوریتم های مضر برای توصیه ها ، از جمله ارائه در پروژه هوش مصنوعی اتحادیه اروپا ، پیشنهاد شده است که محدودیت هایی را برای سیستم های هوش مصنوعی ایجاد می کند که “رفتار انسان ، عقاید یا تصمیمات” را در ضرر خود “دستکاری می کنند”. در ایالات متحده ، یک لایحه اخیراً صاف در مورد فشارهای رسانه های اجتماعی آژانس ها را راهنمایی می کند تا روشهای “محتوای خنثی” را برای تأخیر در الگوریتم کاهش یافته توسط الگوریتم گسترش محتوای مضر و اطلاعات نادرست در رسانه های اجتماعی شناسایی کنند.
اما هونگ می گوید این تلاش ها به اندازه کافی نیست – و برای موفقیت آنها تضمین نمی شود. زبان قانون هوش مصنوعی در اطراف سیستم ها در پیش نویس های بعدی توصیه می شود ، و قانون اعتصاب رسانه های اجتماعی – به همراه سایر لوایح در ایالات متحده برای تنظیم الگوریتم ها – در کنگره باقی مانده است.
وی افزود: “آنچه ما بالاتر از همه می خواهیم چنین مدیریت الگوریتمی جهانی است که با بهترین گزینه ها برای راه حل ها طراحی شده است تا بتواند آن را مؤثر ، در مقیاس ، امن ، سالم ، شفاف ، تفسیر ، عادلانه و قابل اعتماد جلوه دهد.” “توجه به این نکته ضروری است که آیا ما از رسانه های اجتماعی استفاده می کنیم یا نه ، همه ما در این اطلاعات سهم داریم که سیستم های پیشنهادی در مقیاس بزرگ روزانه میلیارد ها بار توزیع می کنند.”
چالش ها و بینش
Tournesol ، مانند YouTube ، از الگوریتم ها برای برقراری توصیه های خود که توسط آرا توسط کاربران پلتفرم و نتایج مرتبط با هر ویدیو به آنها اطلاع داده می شود ، استفاده می کند. (به یاد داشته باشید که صدای Tournesol جمع شده و برای فیلم ها به فیلم تبدیل می شود.) برای رای دادن ، کاربران هر دو فیلم را که تماشا کرده اند مقایسه می کنند و سپس کسی را انتخاب می کنند که از دیگری در مقیاس کشویی توصیه می کند. سیستم “کوپن” برای محافظت از خود در برابر حساب های جعلی ، به کاربران نیاز دارد تا بر اساس “قابلیت اطمینان” دامنه های ایمیل خود مجوز بگیرند ، و کاربران نمی توانند در مقایسه با مقایسه فیلم ها ببینند که چگونه دیگران را رأی داده اند.
هنگام مقایسه فیلم ها ، کاربران Tournesol همچنین می توانند نشان دهند که آیا یک فیلم معیارهای “قابل اعتماد و گمراه کننده” ، “پاک و آموزشی” و “مهم و واقعی” را با فیلم دیگر رعایت می کند. این نتایج به مجموعه ای از داده های مورد استفاده برای آموزش الگوریتم ها برای ارائه توصیه هایی به زبان انگلیسی ، فرانسوی و آلمانی می رسد.
EPFL در کد Open Tournesol و همچنین راه اندازی تکنولوژیکی PolyConseil و Kleis که از طریق برنامه خوب در این پروژه شرکت کرده اند ، کمک کرده است. ویژگی های این آثار شامل صفحات پروفایل رأی دهندگان ، امکان مقایسه فیلم ها به طور مستقیم در YouTube از طریق پسوند Chrome و تجسم که صداهایی از “پد های مورد علاقه” مانند روزنامه نگاران و کارشناسان افراد را نشان می دهد.
هونگ در مورد موانعی که باید قبل از فارغ التحصیلان Tournesol برای تحقیق برطرف شود ، صریح است. به عنوان مثال ، شرکت کنندگان در پروژه در حال بررسی نحوه اختصاص رأی هستند تا متخصصان نسبت به غیر متخصصان به بخش ویدئویی از توصیه ها وابسته باشند. آنها همچنین راه هایی را کشف می کنند که به اندازه کافی جوامع تورنسوول را نشان نمی دهد می تواند بر گروه های غالب مانند مردان سفید پوست تأثیر بگذارد تا با تعصب الگوریتمی مبارزه کند.
“محدودیت اساسی امروز فقدان داده است. ما به شدت به افراد بیشتری نیاز داریم که در یک بررسی محتوا شرکت می کنند تا به ما کمک کنند تا نتایج پایدارتر را به فیلم های YouTube اختصاص دهیم. هنگامی که Tournesol چالش برانگیز و پایدار بوده است ، ما بالاترین می گوییم.”[But] تصور کنید که آیا به جای تقویت گفتار نفرت و تماس با خشونت ، همانطور که در حال حاضر انجام می شود ، الگوریتم های توصیه ها به طور گسترده و مکرر خواستار بی شماری برای صلح هستند که فعالان جسورانه صلح آمیز می کنند … [S]الگوریتم های UCH می توانند به یک متحد خارق العاده برای صلح جهانی تبدیل شوند. “
Source link




