برنامه OpenAI Sora 2 ویدیوهای ضدیهودی هوش مصنوعی را نشان می دهد

احمد گفت که تضمین های OpenAI توخالی بود. او گفت: «برای آنها قابل اعتماد نیست که بگویند اگر پیشبینی نمیکردند که مردم از آن برای تولید محتوای نژادپرستانه استفاده کنند، این موضوع را جمعآوری کردهاند.» شگفتآور است که باهوشترین مهندسان جهان نمیتوانند چیزی برای جلوگیری از تولید یهودستیزی از خدماتشان بیاندیشند.»
این اولین باری نیست که OpenAI برای کنترلهای ایمنی خود مورد بررسی قرار میگیرد. در اوایل سال جاری، پس از گزارشهایی مبنی بر اینکه ربات چت ChatGPT اطلاعاتی در مورد روشهای آسیب رساندن به خود در اختیار یک نوجوان خودکشی قرار میدهد، این شرکت با واکنشهای شدید روبرو شد – قسمتی که نگرانیهای گستردهتری را در مورد اینکه چگونه OpenAI به طور موثر پادمانهای خود را در محصولات اجرا میکند، ایجاد کرد.
اسمایلی Emarketer گفت: «در پایان روز، زمانی که پلتفرم خودش تصمیم بگیرد که چه چیزی تعدیل شود، تعدیل محتوا می تواند کاملاً ذهنی شود.




