مقالات

شما با استفاده نکردن از هوش مصنوعی موضع اخلاقی نمی گیرید

در مایکروسافت، دو اصل راهنما برای Copilot شامل گنجاندن و انصاف است. مک بی با اشاره به اینکه اگر او نگران این مسائل نبود، گفت: “ما می دانیم که اگر هوش مصنوعی اشتباه انجام شود، می تواند بی عدالتی بزرگی ایجاد کند، مطمئناً من شخص اشتباهی بودم که در این نقش باشم. ما مجموعه ای از اصول داریم که معتقدم اصول درستی هستند و می بینم که پشت آنها ایستاده ایم.”

برای راهنمایی نتایج Copilot، مایکروسافت با گروه‌های حمایتی مانند Little People of America کار می‌کند تا اطمینان حاصل کند که معیارهای مناسبی را تنظیم می‌کند. به‌روزرسانی جدیدی که اوایل این ماه منتشر شد، تولید تصویر را برای افراد مبتلا به سندرم داون، نابینایی و تفاوت‌های اندام بهبود بخشید.

مک بی گفت: «در این صنعت، این لحظه قدرت بزرگ است و با قدرت بزرگ، مسئولیت بزرگی به همراه دارد. “من می خواهم رنگین پوستان بیشتری در این سفر شرکت کنند. ما به درک عمیق و صمیمانه ای نیاز داریم که فقط جوامع می توانند به ارمغان بیاورند.”

توید بل آن را با صراحت تر بیان کرد: “شما با گفتن این جمله که “من از این ابزارها به دلیل اخلاق یا نمایندگی یا هر چیز دیگری استفاده نمی کنم، موضع اخلاقی نمی گیرید – شما در واقع اجازه می دهید اتفاقات بد رخ دهد.”


Source link

برگهٔ قبلی 1 2 3

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا