[ad_1]

که در پست وبلاگ روز چهارشنبه ، Rumman Chowdery ، مدیر مهندسی نرم افزار تیم اخلاق ، شفافیت و پاسخگویی در یادگیری ماشین در توییتر ، نوشت که این شرکت پس از آزمایش الگوریتم برای تعصب جنسیتی و نژادی ، به این نتیجه رسید که این الگوریتم اعتیاد آور است. این نشریه و مقاله تحقیقی همراه با جزئیات نشان می دهد که چگونه سیستم کشت ، هنگامی که بر روی تصاویر مربوط به طور تصادفی از افراد از نژادها و جنس های مختلف آزمایش می شود ، به عنوان مثال سفیدپوستان را نسبت به سیاه پوستان و زنان را نسبت به مردان را ترجیح می دهد.
نتیجه گیری توییتر ماه ها پس از این شرکت صورت گرفت گفت که او الگوریتم را در نظر می گیرد، و به عنوان نمونه دیگری از چگونگی تعصب در سیستم های رایانه ای طراحی شده است که برای انجام وظایفی طراحی شده اند که افراد غالباً منحصر به آنها هستند.

چوادری نوشت: “ما معاملات را بین سرعت و سازگاری برش خودكار با خطرات احتمالی كه در این مطالعه مشاهده كردیم ، در نظر گرفتیم.” “یکی از نتیجه گیری های ما این است که همه چیز در توییتر کاندید مناسبی برای الگوریتم نیست ، و در این مورد ، نحوه برش تصویر تصمیمی است که توسط انسان بهتر گرفته شده است.”

در ماه مارس ، توییتر شروع به آزمایش روش جدیدی برای نمایش تصویر کامل – به جای نسخه پیش نمایش برش داده شده به طور خودکار – کردs – در دستگاه های تلفن همراه ، هنگامی که کاربر یک تصویر را توییت می کند. این شرکت گفت که پس از بازخورد مثبت ، او این ویژگی را در ماه می برای همه کاربران iOS و Android خود منتشر کرد. (با این وجود تصاویری را که بسیار طولانی یا گسترده هستند متمرکز می کند).

سخنگوی توییتر روز چهارشنبه به CNN Business گفت که این تغییر اولین بار در برنامه تلفن همراه توییتر رخ داد ، زیرا بیشتر مردم تصاویر را می نویسند و مشاهده می کنند.

توییتر هنگام توییت کردن تصاویر به تعصب نژادی می پردازد

هنگامی که الگوریتم برش تصویر وجود داشت ، هر بار که کاربر تصویری را در توییتر ارسال می کرد ، سیستم خودکار نسخه پیش نمایشی از آن تصویر را که بینندگان قبل از کلیک روی تصویر در اندازه کامل مشاهده می کردند ، برش می داد. توییتر در سال 2018 در یک پست وبلاگی گفت که قبلاً از تشخیص چهره برای کشف نحوه برش تصاویر برای پیش نمایش استفاده کرده است.

با این حال ، نرم افزار تشخیص چهره مستعد خطا بود. این شرکت این رویکرد را کنار گذاشت و در عوض از نرم افزار خود برای آنچه که به عنوان “برآمدگی” عکس ها یا منطقه ای که برای شخصی که به تصویر کلی نگاه می کند جالب توجه است ، معروف است استفاده کرد. قابلیت مشاهده با ردیابی آنچه مردم می بینند مورد مطالعه قرار می گیرد. به عنوان مثال به چیزهایی مانند مردم ، حیوانات و متن علاقه مند هستیم.

سپتامبر گذشته ، این شرکت پس از انتقاد توسط توییت های متعدد ، دعوت شد تا رویکرد الگوریتمی خود در زمینه تولید تصویر را بررسی کند. اینها شامل یکی از کاربران توییترbascule است که در 19 سپتامبر توییت، “تلاش برای یک آزمایش وحشتناک … چه کسی الگوریتم توییتر را انتخاب می کند: میچ مک کانل یا باراک اوباما؟” همراه با کلمات او دو تصویر مستطیل شکل طولانی وجود داشت. عکس اول شامل یک عکس از رهبر اکثریت سنای آمریکا ، مک کانل در بالا ، سفیدپوست ، یک مستطیل نازک و سفید در وسط و یک عکس از رئیس جمهور پیشین آمریکا ، اوباما ، که در پایین سیاه است ، بود. مورد دوم خلاف این را نشان داد ، اوباما در بالا و مک کانل در پایین قرار گرفتند. با استفاده از الگوریتم برش تصویر توییتر ، نسخه های ساید بای ساید پیش نمایش تصاویر فقط مک کانل را نشان می دهند.
یک روز قبل یکی دیگر از کاربران توییتر ،colinmadland ، متوجه شد یک نتیجه پیش نمایش مشابه هنگامی که او عکسی را منتشر می کند که فکر می کند یک مرد سفیدپوست را در کنار عکس مرد سیاه پوستی که با او ملاقات می کند نشان می دهد. پیش نمایش پیش فرض توییتر فقط مرد سفید را نشان می داد.
در پاسخ بهbascule در آن زمان شرکت توییت وی قبل از اجرای ویژگی پیش نمایش ، شواهدی از تعصب نژادی یا جنسیتی را مشاهده نکرده است ، اما گفت که اگر مشکلی در الگوریتم برداشت وجود داشته باشد ، بررسی خواهد کرد.

در روز چهارشنبه ، در یک وبلاگ توییتر ، چوودری نوشت که دور شدن از استفاده از الگوریتم برش تصویر ، وابستگی شرکت به یادگیری ماشین را کاهش می دهد (یک روش هوش مصنوعی که در آن کامپیوتر توسط منافذ داده آموزش داده می شود) ” توسط افرادی که از محصولات ما استفاده می کنند بهترین عملکرد را دارد. “

سخنگوی توییتر گفت این شرکت قصد دارد الگوریتم کاهش تصویر را در چند ماه آینده در Twitter.com کنار بگذارد. این الگوریتم به چندین روش دیگر نیز استفاده می شود ، به عنوان مثال وقتی شخصی چندین عکس را توییت می کند. سخنگوی گفت که توییتر همچنین در حال کار بر روی بهبود این برنامه ها است.



[ad_2]

منبع: pezeshk-khabar.ir

ایندکسر