Fairwords ادعا می کند که از آزار و اذیت با هوش مصنوعی جلوگیری می کند ، اما واقعیت پیچیده تر است

بینش هوشمند تری در نامه ورودی خود می خواهید؟ برای دریافت فقط آنچه در مورد هوش مصنوعی ، داده ها و رهبران امنیتی مهم است ، برای خبرنامه های هفتگی ما ثبت نام کنید. هم اکنون مشترک شوید
آزار و اذیت در محل کار بر کارکنان همه منشاء ، جنسیت ها ، جنسیت ها و قومیت ها تأثیر می گذارد ، اما به طور نامتناسب گروه هایی که در گروه های ناکافی حضور ندارند. یک مطالعه سال 2018 توسط Thot Street Tallasment نشان داد که 81 ٪ از زنان در طول زندگی مورد آزار و اذیت قرار گرفته اند. طبق مطالعه دانشکده حقوق UCLA ، نیمی از کارگران LGBTQ در مقطعی از حرفه خود با تبعیض در محل کار روبرو شده اند.
ترتیبات کار از خانه در طول بیماری همه گیر باعث کندی نشد و یا روند معکوس را معکوس نکرد-آنها در واقع آن را تسریع کردند. نظرسنجی توسط TalentLMS و کمپین بنفش ، که نتایج آن در سال 2021 منتشر شد ، نشان داد که بیش از یک در چهار پاسخ دهندگان از ابتدای بحران های بهداشتی ، یا از طریق کنفرانس های ویدیویی ، ایمیل یا پیام های متنی ، رفتارهای جنسی ناخواسته را بصورت آنلاین تجربه کرده اند.
فراتر از رنج عاطفی برای همه شرکت کنندگان ، انگیزه ای برای دلار و مراکز وجود دارد که شرکت ها برای جلوگیری و پرداختن به سوءاستفاده. آزار و اذیت جنسی باعث خسارت ماندگار به کارمندانی که آن را تجربه می کنند ، منجر به گردش مالی بالاتر ، کاهش بهره وری و افزایش غیبت و مرخصی بیمار می شود. Deloitte تخمین می زند که آزار و اذیت جنسی در کار به طور متوسط 2.6 میلیارد دلار عملکرد از دست رفته یا 1،053 دلار برای هر قربانی هزینه دارد.
وام گرفتن یک صفحه کتاب در رسانه های اجتماعی ، یک فرهنگ نسبتاً جدید از Start -Ups در حال توسعه سیستم هایی است که از ترکیبی از فیلترها ، الگوریتم ها و سایر ابزارها برای علامت گذاری پیام های بالقوه مشکل ساز قبل از رسیدن به کارمندان استفاده می کنند. به عنوان مثال ، Fairwords ، که امروز 5.25 میلیون دلار در یک سری دور ، به رهبری Fintop Capital جمع آوری کرده است ، از “بررسی طلسم” به عنوان رابط برای اطلاع رسانی به کاربران از زبان مضر هنگام ورود و ارائه اطلاعات در مورد نحوه تفسیر زبان استفاده می کند. اما برخی از کارشناسان می گویند که این سیستم عامل ها خطر عادی سازی نظارت کارمندان را دارند و مأموریت آنها را برای کاهش سوءاستفاده پیچیده می کنند.
مقیاس پذیری AI به مرزهای خود برخورد می کند
کلاه های برق ، افزایش هزینه برای نشانگرها و تأخیر در نتیجه گیری تغییر شکل مجدد شرکت هوش مصنوعی. به سالن اختصاصی ما بپیوندید تا بدانید تیم های برتر چگونه هستند:
- تبدیل انرژی به مزیت استراتژیک
- معماری نتیجه گیری مؤثر برای افزایش واقعی از پهنای باند
- بازده رقابتی سرمایه گذاری را با سیستم های پایدار هوش مصنوعی باز کنید
فضایی را برای ماندن فراهم کنید: https://bit.ly/4mwgngo
پرورش دادن
Fairwords ، مانند رقبای خود Commsafe AI و آگاه است ، از هوش مصنوعی برای اسکن پیام هایی که کارمندان از طریق سیستم عامل های همکاری ارسال می کنند ، از جمله Slack ، تیم های مایکروسافت ، پیام رسان فیس بوک ، اسکایپ ، افزایش و ایمیل استفاده می کند. نرم افزار این شرکت روی دسک تاپ قرار دارد و زبانی را پیدا می کند که “سازگار نیست” ، مانند کلمات و عباراتی است که ممکن است در گروه های سایبری یا آزار و اذیت جنسی قرار بگیرد. هنگامی که Fairwords به زبانی توجه می کند که احتمالاً سیاست های محل کار دارد ، نمونه هایی از دنیای واقعی را نشان می دهد که چگونه زبان “برای تجارت و شغل” مضر است.
در یک مدیران پشتیبان ، آنها می توانند سیاست های Fairwords را برای انواع خاصی از تخلفات اضافه کنند. این شرکت ادعا می کند که نرم افزار آن همچنین ممکن است به دنبال علائم رشوه و فساد ، توافق نامه های مخفی و تبعیض باشد. Fairwords در تلاش است تا نقض نیروی کار را از طریق یک پانل تجزیه و تحلیل تعیین کند و روند ارتباطات را به موقع و درصد کارمندانی که پیام های خود را قبل از ارسال بررسی می کنند ، نشان دهد.
“Fairwords به انطباق C-suite و رهبران منابع انسانی کمک می کند تا با ارائه تابلوهای کنترل ناشناس که اطلاعات را نشان می دهد ، از جمله تعداد کلمات مورد تجزیه و تحلیل ، تعداد کلمات مشخص شده ، درصد پرچم های تکرار شده در 30 روز ، علائم علائم ، علائم علائم ، از جمله علائم ، در میان علائم یک بار در بالاترین برنامه های کیفیت ، سلامت را نشان دهند ، از جمله تعداد کلمات مورد تجزیه و تحلیل ، تعداد کلمات مشخص شده در 30 روز ، علائم علائم ، علائم علائم ، از جمله علائم ، علائم علائم ، از جمله علائم ، علائم علائم ، از جمله علائم علائم ، از جمله علائم ، علائم علائم ، از جمله علائم ، علائم علائم ، از جمله علائم ، علائم علائم ، از جمله علائم ، علائم علائم ، از جمله علائم ، در میان علائم است.
Fairwords راه حل را به عنوان راهی برای دیدن اینکه کدام کلمات یا عبارات اغلب مشخص می شوند و کدام کانال های ارتباطی بالاترین متخلفان هستند -و همچنین برای تشخیص برنامه های چت غیرمجاز است. اما در حالی که این شرکت ادعا می کند که داده های ناشناس آن را جمع آوری می کند ، برخی از کارمندان ممکن است نسبت به نرم افزاری که کلیدهای آنها را تجزیه و تحلیل می کند احساس احتیاط کنند.
“Fairwords به گونه ای طراحی شده است که ابتدا با ارائه بازخورد و آموزش فوری ، به آنها آموزش می دهد زیرا آنها را معرفی می کنند تا به آنها در نوشتن ارتباطات فراگیر ، سازگار و صادقانه کمک کنند. مأموریت ما این است که با بهبود ماهیت ارتباطات مکتوب ، فرهنگ های شرکت را پرورش دهیم.
طبق بررسی 2021 ExpressVPN ، 59 ٪ از کارمندان نسبت به مشاهده کارفرمایان محتاط هستند ، در حالی که 43 ٪ بر این باورند که نرم افزار نظارت بر محل کار – که تا حد زیادی در ایالات متحده قانونی است – نقض اعتماد به نفس است. علاوه بر نگرانی های محرمانه ، بخشی از دلیل این امر ممکن است این باشد که شرکت ها اغلب نتوانند به کارمندان سیگنال دهند که از نرم افزار نظارت استفاده می کنند. دیجیتال.
سخنگوی Fairwords ادعا می کند که این پلتفرم داده ها را به روشی ناشناس جمع می کند و اطلاعات مربوط به یک سازمان را به طور کلی برای انسان نشان می دهد. آنها افزودند: “محصولات مشاهده ای که ما نیستیم ، ما مردم را تماشا می کنیم و برای ارائه بازخورد یا پشتیبانی از کارمندان ساخته نشده ایم و آنها اغلب با کارمندان به اشتراک نمی گذارند تا زمانی که کسی را که کاری اشتباه می کند” بگیرند “. “ما به یک رویکرد فعال و شفاف اعتقاد داریم تا به عنوان یک کل پیشرفت ایجاد کنیم.”
با این حال ، برخی از کارشناسان می گویند که نرم افزاری مانند Fairwords – خواه مقصر فعال شدن نظارت باشد یا نه – اگر صحیح و شفاف باشد می تواند تغییر کند.
“کارمندان حق محرمانه بودن را دارند و شرکت ها باید شفاف باشند که آیا آنها در حال نظارت بر ارتباطات مربوط به کار کارمندان خود هستند … [But] سیستم عامل هایی مانند Fairwords می تواند ابزاری عالی برای حساس کردن و آموزش افراد برای استفاده از یک زبان شغلی فراگیر و صادقانه باشد ، “Nabamallika Dehyingia ، پیش از کار در دانشگاه کالیفرنیا ، سن دیگو ، که یک مطالعه همزمان با آزار و اذیت شغلی است. [other] سیاست هایی برای اطمینان از شرکت در ارتباطات دیجیتال توهین آمیز یا خشونت آمیز. “
امیر کارامی ، استادیار متخصص در رسانه های اجتماعی و سیاستی در دانشگاه کارولینای جنوبی ، موافقت می کند که این نوع ابزارها با ترویج فرهنگ مثبت ، آموزش کارمندان و کمک به شرکت ها برای تعیین بخشی از فضای کاری آنها می توانند سودمند باشند. اما او همچنین بر مشکلاتی که ایجاد می کنند ، مانند جمع آوری داده های بالقوه ناخواسته تأکید می کند.
کارامی به VentureBeat از طریق ایمیل گفت: “اول ، اگر سیستم عامل ها داده های شخصی را جمع آوری کنند و کارمندان نمی دانند چه کسی به داده ها دسترسی دارد ، می تواند ترس ایجاد کند و سطح اعتماد به شرکت را کاهش دهد.” “دوم ، کارمندان ممکن است فکر کنند که داده ها می توانند برای مجازات استفاده شوند. سوم ، اگر یک کارمند از یک کلمه نامناسب استفاده کند که توسط سیستم عامل ها به رسمیت شناخته نشود ، ممکن است فرض کند که استفاده از این کلمه خوب است. چهارم ، سیستم عامل ها می توانند از نظارت مداوم ایجاد کنند که منجر به رضایت شغلی بیشتر می شود.”
معایب و تغییر معنی دار
یکی از چالش ها نشانگر یک زبان توهین آمیز است ، در حالی که اجازه نمی دهد تعصب وارد سیستم شود.
در یک مطالعه سال 2019 توسط دانشگاه واشنگتن ، دانشمندان دریافتند که هوش مصنوعی به احتمال زیاد عبارات را در گویش انگلیسی آفریقایی-آمریکایی (AAE) نشان می دهد ، که توسط بسیاری از افراد سیاه پوست در ایالات متحده و سمی از معادل های مشترک انگلیسی آمریکایی صحبت می شود ، اگرچه به عنوان سخنرانان غیر سمی درک می شود. سایر ممیزی های مربوط به سیستم های تشخیص سمیت ، با استفاده از هوش مصنوعی ، دریافتند که آنها در تلاشند تا گفتار نفرت را که از شایعات احیا شده مانند کوئر استفاده می کند ، بشناسند. به عنوان مثال ، در یک مقطع ، سیستم های تشخیص نفرت که در فیس بوک مورد استفاده قرار می گیرند ، اظهارات تهاجمی را باز می کنند که افراد سفید پوست را بیش از حمله به سایر گروه های جمعیتی انکار می کنند.
همچنین شواهدی وجود دارد که نشان می دهد هوش مصنوعی متن سمی را از دست می دهد که به راحتی می توان متوجه آن شد ، به خصوص در مواردی که هیچ کاراکتر وجود ندارد ، فضاهای بین علائم و هجی با اعداد به جای کلمات اضافه شده است. Fairwords ، از طرف خود ، می گوید که برای “بهبود مداوم” الگوریتم های خود و تسهیل شخصی سازی سیستم های آن کار می کند.
سخنگوی سخنگوی به VentureBeat گفت: “افتتاح Fairwords در حال حاضر از مدل های پیش ساخته و ثبت شده طبیعی استفاده می کند.” “به زودی ، ما به روزرسانی هایی را وارد خواهیم کرد که هم از داده های یادگیری زبان و هم در مورد داده های مشتری با بررسی مصرف کننده (شخص SO -Call در چرخه) استفاده می کنند تا بتوانیم کارایی تشخیص بیشتر را بهبود بخشیم … ما هستیم [currently] از مشتریان مشتری ناشناس برای کمک به آموزش مدل ها استفاده کنید ، که شامل بازخورد کاربران نهایی می شود وقتی نشان می دهد که اعلان ها با طبقه بندی های چرا دقیق نیستند. این به تجزیه و تحلیل کمک می کند تا با ژارگون خاص دامنه و تغییر در رفتار ارتباطی سازگار شود. “
صرف نظر از صحت سیستم هوش مصنوعی ، Dehingia هشدار می دهد که این نرم افزار به خودی خود پاسخی برای آزار و اذیت یا سوءاستفاده در محیط کار نیست. در عوض ، به نظر وی ، این امر نیاز به “تغییرات نظارتی تر” دارد که اولویت جلوگیری از آزار و اذیت از طریق “سیاست های محافظ” و “اقدامات قوی برای ورود و تنوع” را دارد.
“ما … ما برای پیگیری پیشرفت ها و عقب نشینی در این مشکلات به داده ها نیاز داریم ، و سیستم عامل های در نظر گرفته شده برای آموزش لزوماً مواردی نیستند که برای ارزیابی تأثیر خودشان مناسب ترین هستند … شرکت ها [also] نیاز به توسعه فرهنگ گنجاندن و تنوع ، که از بالا به پایین (اولویت رهبری تنوع) است ، و همچنین مشارکت در این واقعیت که به کارمندان خود اجازه می دهد بازخورد و پیشنهاداتی را برای تبدیل یک محل کار به یک محیط امن ارائه دهند ، “Deacha باید در محل باشد ، به خصوص در نقش های بالاتر یا رهبری ، افراد مهمی هستند که متعلق به نژادی و سایر گروه های اجتماعی هستند باید در این نقطه قرار بگیرند.
Source link



