چگونه AI دنیای آنلاین راحت تری ایجاد می کند

بینش هوشمند تری در نامه ورودی خود می خواهید؟ برای دریافت فقط آنچه در مورد هوش مصنوعی ، داده ها و رهبران امنیتی مهم است ، برای خبرنامه های هفتگی ما ثبت نام کنید. هم اکنون مشترک شوید
از حمله سایبری در رسانه های اجتماعی گرفته تا حمله به متابیتور ، اینترنت می تواند مکانی خطرناک باشد. اعتدال محتوای آنلاین یکی از مهمترین راه هایی است که شرکت ها می توانند سیستم عامل های خود را برای مصرف کنندگان مجذوب خود کنند.
با این حال ، محتوای متوسط کار آسانی نیست. حجم محتوا آنلاین حیرت انگیز است. ناظران باید از همه چیز از گفتار نفرت و تبلیغات تروریستی گرفته تا برهنگی و بالاتر مبارزه کنند. اضافه بار داده های دنیای دیجیتال فقط با این واقعیت پیچیده است که بخش اعظم محتوا توسط کاربران تولید می شود و شناسایی و طبقه بندی آن دشوار است.
هوش مصنوعی برای تشخیص خودکار گفتار نفرت
اینجاست که AI می آید. با استفاده از الگوریتم های یادگیری ماشین برای شناسایی و طبقه بندی محتوا ، شرکت ها می توانند به محض ایجاد به جای انتظار برای ساعت ها یا روزها برای بررسی شخص ، محتوای خطرناک را شناسایی کنند ، بنابراین تعداد افراد در معرض محتوای خطرناک را کاهش می دهد.
به عنوان مثال ، توییتر از هوش مصنوعی برای شناسایی و حذف تبلیغات تروریستی از سکوی خود استفاده می کند. هوش مصنوعی بیش از نیمی از توییت هایی را که شرایط کلی آن را می شکند ، پرچم گذاری می کند ، در حالی که مدیرعامل Parag Agrawal بر استفاده از هوش مصنوعی برای شناسایی گفتار نفرت و اطلاعات نادرست متمرکز شده است. این گفته است که باید بیشتر انجام شود زیرا سمیت هنوز روی سکو در حال رشد است.
مقیاس پذیری AI به مرزهای خود برخورد می کند
کلاه های برق ، افزایش هزینه برای نشانگرها و تأخیر در نتیجه گیری تغییر شکل مجدد شرکت هوش مصنوعی. به سالن اختصاصی ما بپیوندید تا بدانید تیم های برتر چگونه هستند:
- تبدیل انرژی به مزیت استراتژیک
- معماری نتیجه گیری مؤثر برای افزایش واقعی از پهنای باند
- بازده رقابتی سرمایه گذاری را با سیستم های پایدار هوش مصنوعی باز کنید
فضایی را برای ماندن فراهم کنید: https://bit.ly/4mwgngo
به همین ترتیب ، هوش مصنوعی در فیس بوک تقریباً 90 ٪ سخنرانی نفرت را که از این سکو خارج شده است ، از جمله برهنگی ، خشونت و سایر محتوای بالقوه توهین آمیز تشخیص می دهد. با این حال ، مانند توییتر ، فیس بوک هنوز راه طولانی دارد.
جایی که AI اشتباه کرد
علیرغم قول خود ، اعتدال محتوای مبتنی بر هوش مصنوعی با چالش های بسیاری روبرو است. یکی این است که این سیستم ها غالباً به اشتباه محتوای ایمن را خطرناک امضا می کنند ، که می تواند عواقب جدی داشته باشد. به عنوان مثال ، فیس بوک مقالات خبری مشروع در مورد Coronavirus را به عنوان اسپم در ابتدای همه گیر جشن گرفت. او به اشتباه صفحه فیس بوک جمهوریخواه را بیش از دو ماه ممنوع اعلام کرد. و ، او نشریات و اظهارات مربوط به Plymouth Hoe ، یک نقطه عطف عمومی در انگلیس را به عنوان توهین آمیز نشان می دهد.
با این حال ، مشکل دشوار است. محتوای پرچم ممکن است اثرات خطرناک تری داشته باشد. تیراندازان در ال پاسو و گیلروی قبل از رفتن به خطاهای خود ، اهداف خشونت آمیز خود را در 8chan و اینستاگرام منتشر کرده اند. رابرت بورز ، متهم متهم ذبح در کنیسه در پیتسبورگ ، در GAB ، یک وب سایت توییتر -که توسط The White Peaks استفاده می شد ، فعال بود. اطلاعات نادرست جنگ در اوکراین میلیون ها بازدید و لایک را در فیس بوک ، توییتر ، یوتیوب و تیکتوک دریافت کرده است.
مشکل دیگر این است که بسیاری از سیستم های اعتدال مبتنی بر هوش مصنوعی تعصب نژادی را نشان می دهند که برای ایجاد یک محیط امن و قابل استفاده برای همه باید در نظر گرفته شوند.
هوش مصنوعی را برای اعتدال بهبود بخشید
برای از بین بردن این مشکلات ، سیستم های اعتدال هوش مصنوعی به داده های آموزش با کیفیت بالاتر احتیاج دارند. امروزه ، بسیاری از شرکت ها داده ها را برای آموزش سیستم های هوش مصنوعی خود به مهارت های کم ، مراکز تماس با آموزش ضعیف در کشورهای جهان سوم اختصاص می دهند. این برچسب ها هیچ مهارت زبانی و زمینه فرهنگی برای تصمیم گیری دقیق اعتدال ندارند. به عنوان مثال ، مگر اینکه با سیاست آمریکایی آشنا باشید ، احتمالاً نمی دانید که با وجود اهمیت آنها برای تعدیل محتوا ، چه پیام “6 ژانویه” یا “رودی و یک شکارچی” را ذکر می کند. اگر سخنگوی محلی به زبان انگلیسی نیستید ، احتمالاً شاخص ها را از نظر شرور بیش از حد بیش از حد بیش از حد خواهید کرد ، حتی اگر از آنها در یک زمینه مثبت استفاده شود ، به اشتباه به نام های Plymouth یا “این خیلی بد” به عنوان توهین آمیز است.
شرکتی که این چالش را حل می کند ، Surge AI است ، یک پلتفرم برچسب داده که برای آموزش AI در ظرافت های زبان طراحی شده است. این تیم توسط تیمی از مهندسین و محققان تأسیس شده است که سیستم عامل های اعتماد و ایمنی را در فیس بوک ، یوتیوب و توییتر ساخته اند.
به عنوان مثال ، فیس بوک با جمع آوری داده های با کیفیت بالا برای آموزش سیستم های اعتدال خود به زبان های مهم با بسیاری از مشکلات روبرو است. با وجود اندازه شرکت و دامنه آن به عنوان یک بستر ارتباطی جهانی ، به سختی محتوای کافی برای آموزش و حفظ الگویی برای عربی استاندارد ، ده ها گویش بسیار کمتر داشت. فقدان این شرکت از لیست جامع شایعات سمی زبانهایی که در افغانستان صحبت می شود به این معنی بود که بسیاری از نشریات نقض کننده می توانند فاقد آن باشند. وی فاقد سخنرانی نفرت از آساما بود ، اگرچه کارمندان به دلیل افزایش خشونت علیه گروه های قومی در آنجا ، گفتار نفرت را به عنوان یک خطر عمده در ASAM یاد می کردند. اینها مشکلاتی هستند که هوش مصنوعی بیش از حد به حل تمرکز خود بر روی زبانها و همچنین سمیت و مجموعه داده های کراهت کمک می کند.
به طور خلاصه ، با مجموعه داده های بزرگتر و با کیفیت بالاتر ، سیستم عامل های رسانه های اجتماعی می توانند الگوریتم های دقیق تری را به محتوای متوسط آموزش دهند تا محتوای مضر را تشخیص دهند ، که به محافظت از آنها بدون سوءاستفاده کمک می کند. درست همانطور که مجموعه های داده های بزرگ مدلهای پیشرفته زبان امروز زبان مانند OpenAi GPT-3 را تغذیه کرده اند ، همچنین می توانند هوش مصنوعی بهتری را برای اعتدال تغذیه کنند. با داده های کافی ، مدل های یادگیری ماشین می توانند یاد بگیرند که سمیت را با دقت بیشتر و بدون انحراف در مجموعه داده های با کیفیت پایین تشخیص دهند.
اعتدال محتوای هوش مصنوعی یک راه حل ایده آل نیست ، اما این یک ابزار ارزشمند است که می تواند به شرکت ها کمک کند تا سیستم عامل های خود را ایمن و بدون آسیب نگه دارند. با استفاده فزاینده از هوش مصنوعی ، می توانیم به آینده ای امیدوار باشیم که دنیای آنلاین مکانی جذاب تر برای همه باشد.
Valerias Bangrt مشاور استراتژی و نوآوری ، بنیانگذار سه رسانه برنده و نویسنده منتشر شده است.
تولید کنندگان DataDecision
به جامعه VentureBeat خوش آمدید!
تولید کنندگان DataDecision جایی هستند که متخصصان ، از جمله افراد فنی که با داده ها کار می کنند ، می توانند اطلاعات مربوط به داده ها و نوآوری ها را به اشتراک بگذارند.
اگر می خواهید در مورد ایده های آوانگارد و اطلاعات به روز ، بهترین شیوه ها و آینده فناوری داده ها و داده ها بخوانید ، در تولید کنندگان DataDecision به ما بپیوندید.
حتی ممکن است در مورد مشارکت در مقاله خود فکر کنید!
بیشتر از تولید کنندگان DataDecision بیشتر بخوانید
Source link



![چگونه می توان ذکرهای فیس بوک را ردیابی کرد؟ [2025] چگونه می توان ذکرهای فیس بوک را ردیابی کرد؟ [2025]](https://brand24.com/blog/app/uploads/2024/02/facebook_mentions_brand_image_blog_cover_615x345_czekadelko2_4.png)
