شما با استفاده نکردن از هوش مصنوعی موضع اخلاقی نمی گیرید

در مایکروسافت، دو اصل راهنما برای Copilot شامل گنجاندن و انصاف است. مک بی با اشاره به اینکه اگر او نگران این مسائل نبود، گفت: “ما می دانیم که اگر هوش مصنوعی اشتباه انجام شود، می تواند بی عدالتی بزرگی ایجاد کند، مطمئناً من شخص اشتباهی بودم که در این نقش باشم. ما مجموعه ای از اصول داریم که معتقدم اصول درستی هستند و می بینم که پشت آنها ایستاده ایم.”
برای راهنمایی نتایج Copilot، مایکروسافت با گروههای حمایتی مانند Little People of America کار میکند تا اطمینان حاصل کند که معیارهای مناسبی را تنظیم میکند. بهروزرسانی جدیدی که اوایل این ماه منتشر شد، تولید تصویر را برای افراد مبتلا به سندرم داون، نابینایی و تفاوتهای اندام بهبود بخشید.
مک بی گفت: «در این صنعت، این لحظه قدرت بزرگ است و با قدرت بزرگ، مسئولیت بزرگی به همراه دارد. “من می خواهم رنگین پوستان بیشتری در این سفر شرکت کنند. ما به درک عمیق و صمیمانه ای نیاز داریم که فقط جوامع می توانند به ارمغان بیاورند.”
توید بل آن را با صراحت تر بیان کرد: “شما با گفتن این جمله که “من از این ابزارها به دلیل اخلاق یا نمایندگی یا هر چیز دیگری استفاده نمی کنم، موضع اخلاقی نمی گیرید – شما در واقع اجازه می دهید اتفاقات بد رخ دهد.”




