توییتر پس از اینکه کاربران ادعا کردند ویژگی کاشت چهره سفیدپوستان را ترجیح می دهد ، تحقیقات را آغاز کرد

ابزاری خودکار در برنامه تلفن همراه شبکه اجتماعی به طور خودکار تصاویری را که برای قرار گرفتن در صفحه خیلی بزرگ هستند برش می دهد – و تعیین می کند کدام قسمت های تصویر باید کوتاه شوند.

اما به نظر می رسید آزمایشی توسط یک برنامه نویس فارغ التحصیل تعصب نژادی را نشان می دهد.

تصویر:
توییتر متعهد شد که در این باره تحقیق کند

تونی آرکری برای دیدن اینکه الگوریتم توییتر چه گزینه ای را انتخاب می کند ، عکسی طولانی را منتشر کرد که در آن تصاویر رهبر رهبر جمهوری خواه در مجلس سنا در بالا و باراک اوباما رئیس جمهور سابق آمریکا در پایین قرار دارد – که با فضای سفید جدا شده است.

بیشتر بخوانیم؟
بهترین فیلم های لرزان: بهترین فیلم های ترسناک که می توانید همین حالا روی Shudder پخش کنید

در عکس دوم ، سر اوباما در بالای سر قرار دارد ، و سر مک کانل در پایین قرار دارد.

هر دو بار رئیس سابق کاملا کنار گذاشته شد.

آقای Arciri پس از “آزمایش هولناک” – که پس از عکسی که وی از یک همکار سیاه پوستش گرفته بود – به وجود آمد ، نوشت: “توئیتر تنها یک نمونه از نژادپرستی است که در الگوریتم های یادگیری ماشین ظاهر می شود.”

در زمان نوشتن مقاله ، تجربه وی 78000 بار بازتوییت شده است.

بیشتر بخوانیم؟
مسابقه برایتون و من یونایتد به صورت زنده پخش می شود: چگونه اکنون لیگ برتر را از هرجایی می توان تماشا کرد

توییتر متعهد شد که به این موضوع رسیدگی کند ، اما در بیانیه ای گفت: “تیم ما تعصب را قبل از ارسال فرم آزمایش کرد و هیچ شواهدی از تعصب نژادی یا جنسیتی در آزمون ما یافت.

“از این نمونه ها مشخص است که ما تجزیه و تحلیل بیشتری برای انجام داریم. ما همچنان آنچه را که یاد می گیریم ، اعمالی که انجام می دهیم به اشتراک خواهیم گذاشت و منبع تجزیه و تحلیل خود را باز خواهیم کرد تا دیگران بتوانند آن را مرور و تکرار کنند.”

بیشتر بخوانیم؟
کدام زنگ هوشمند برای خانه شما مناسب است؟ | رادار تاک

نماینده توییتر همچنین به تحقیق انجام شده توسط یک دانشمند دانشگاه کارنگی ملون که 92 عکس را تجزیه و تحلیل کرده است ، اشاره کرد. در آن آزمایش ، الگوریتم 52 بار چهره سیاه را ترجیح داد.

در سال 2018 ، این شرکت گفت که این ابزار مبتنی بر “شبکه عصبی” است که با استفاده از هوش مصنوعی پیش بینی می کند کدام قسمت از تصویر مورد علاقه کاربر باشد.

مردیت ویتاکر ، بنیانگذار م Instituteسسه AI Now ، به تامسون رویترز گفت: “این نمونه دیگری از یک نمونه طولانی و خسته کننده از سیستم های رباتیک است که نماد نژادپرستی ، زن ستیزی و تاریخ تبعیض است.”

بیشتر بخوانیم؟
بهترین ابزارهای نظارت بر شبکه 2020: نرم افزار مدیریت و نظارت از راه دور RMM


لینک ها کوتاه شده

tinyurl.com/yyhzft8g
is.gd/V7Uc6x
shrtco.de/97AfZ
clck.ru/Qyjaj
u.nu/79jb9
ulvis.net/Anc