توییتر پس از اینکه کاربران ادعا کردند ویژگی کاشت چهره سفیدپوستان را ترجیح می دهد ، تحقیقات را آغاز کرد

ابزاری خودکار در برنامه تلفن همراه شبکه اجتماعی به طور خودکار تصاویری را که برای قرار گرفتن در صفحه خیلی بزرگ هستند برش می دهد – و تعیین می کند کدام قسمت های تصویر باید کوتاه شوند.

اما به نظر می رسید آزمایشی توسط یک برنامه نویس فارغ التحصیل تعصب نژادی را نشان می دهد.

تصویر:
توییتر متعهد شد که در این باره تحقیق کند

تونی آرکری برای دیدن اینکه الگوریتم توییتر چه گزینه ای را انتخاب می کند ، عکسی طولانی را منتشر کرد که در آن تصاویر رهبر رهبر جمهوری خواه در مجلس سنا در بالا و باراک اوباما رئیس جمهور سابق آمریکا در پایین قرار دارد – که با فضای سفید جدا شده است.

بیشتر بخوانیم؟
ویروس کرونا ویروس: بیش از نیمی از ما از ماسک های یکبار مصرف استفاده مجدد می کنیم - دیگران غالباً شسته نمی شوند | اخبار علم و فناوری

در عکس دوم ، سر اوباما در بالای سر قرار دارد ، و سر مک کانل در پایین قرار دارد.

هر دو بار رئیس سابق کاملا کنار گذاشته شد.

آقای Arciri پس از “آزمایش هولناک” – که پس از عکسی که وی از یک همکار سیاه پوستش گرفته بود – به وجود آمد ، نوشت: “توئیتر تنها یک نمونه از نژادپرستی است که در الگوریتم های یادگیری ماشین ظاهر می شود.”

در زمان نوشتن مقاله ، تجربه وی 78000 بار بازتوییت شده است.

بیشتر بخوانیم؟
بهترین برنامه های iPad سال 2020

توییتر متعهد شد که به این موضوع رسیدگی کند ، اما در بیانیه ای گفت: “تیم ما تعصب را قبل از ارسال فرم آزمایش کرد و هیچ شواهدی از تعصب نژادی یا جنسیتی در آزمون ما یافت.

“از این نمونه ها مشخص است که ما تجزیه و تحلیل بیشتری برای انجام داریم. ما همچنان آنچه را که یاد می گیریم ، اعمالی که انجام می دهیم به اشتراک خواهیم گذاشت و منبع تجزیه و تحلیل خود را باز خواهیم کرد تا دیگران بتوانند آن را مرور و تکرار کنند.”

بیشتر بخوانیم؟
بهترین هدفون سونی برای حذف نویز 52 دلار از Prime Day دریافت می کند

نماینده توییتر همچنین به تحقیق انجام شده توسط یک دانشمند دانشگاه کارنگی ملون که 92 عکس را تجزیه و تحلیل کرده است ، اشاره کرد. در آن آزمایش ، الگوریتم 52 بار چهره سیاه را ترجیح داد.

در سال 2018 ، این شرکت گفت که این ابزار مبتنی بر “شبکه عصبی” است که با استفاده از هوش مصنوعی پیش بینی می کند کدام قسمت از تصویر مورد علاقه کاربر باشد.

مردیت ویتاکر ، بنیانگذار م Instituteسسه AI Now ، به تامسون رویترز گفت: “این نمونه دیگری از یک نمونه طولانی و خسته کننده از سیستم های رباتیک است که نماد نژادپرستی ، زن ستیزی و تاریخ تبعیض است.”

بیشتر بخوانیم؟
5 کار مفید که برنامه های VPN Android می توانند انجام دهند


لینک ها کوتاه شده

tinyurl.com/yyhzft8g
is.gd/V7Uc6x
shrtco.de/97AfZ
clck.ru/Qyjaj
u.nu/79jb9
ulvis.net/Anc