مقالات

برنامه OpenAI Sora 2 ویدیوهای ضدیهودی هوش مصنوعی را نشان می دهد

احمد گفت که تضمین های OpenAI توخالی بود. او گفت: «برای آنها قابل اعتماد نیست که بگویند اگر پیش‌بینی نمی‌کردند که مردم از آن برای تولید محتوای نژادپرستانه استفاده کنند، این موضوع را جمع‌آوری کرده‌اند.» شگفت‌آور است که باهوش‌ترین مهندسان جهان نمی‌توانند چیزی برای جلوگیری از تولید یهودستیزی از خدماتشان بیاندیشند.»

این اولین باری نیست که OpenAI برای کنترل‌های ایمنی خود مورد بررسی قرار می‌گیرد. در اوایل سال جاری، پس از گزارش‌هایی مبنی بر اینکه ربات چت ChatGPT اطلاعاتی در مورد روش‌های آسیب رساندن به خود در اختیار یک نوجوان خودکشی قرار می‌دهد، این شرکت با واکنش‌های شدید روبرو شد – قسمتی که نگرانی‌های گسترده‌تری را در مورد اینکه چگونه OpenAI به طور موثر پادمان‌های خود را در محصولات اجرا می‌کند، ایجاد کرد.

اسمایلی Emarketer گفت: «در پایان روز، زمانی که پلتفرم خودش تصمیم بگیرد که چه چیزی تعدیل شود، تعدیل محتوا می تواند کاملاً ذهنی شود.


Source link

برگهٔ قبلی 1 2 3 4

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا