[ad_1]

Timnit Gebru به دلیل تحقیقاتش در زمینه تعصب و نابرابری در هوش مصنوعی و به ویژه برای مقاله 2018 شناخته شده است ، که با همکاری Joy Buolamini تألیف شده است ، که نشان می دهد نرم افزار شناخت تجاری به هنگام ضعف چگونه کار می کند زنان و افراد رنگارنگ را طبقه بندی می کند. کار آنها باعث آگاهی گسترده از مشکلات رایج در هوش مصنوعی امروزه شده است ، به ویژه هنگامی که فناوری وظیفه دارد چیزی را در مورد افراد شناسایی کند.
در گوگل ، گبرو رئیس تیم اطلاعات اخلاقی این شرکت و یکی از معدود کارمندان سیاه پوست در کل شرکت بود (طبق گزارش تنوع سالانه شرکت برای سال 2020 ، 3.7٪ از کارمندان گوگل سیاه پوست هستند). – چه رسد به آن در بخش هوش مصنوعی آن. این محقق همچنین از بنیانگذاران گروه سیاه در هوش مصنوعی است. چهارشنبه شب ، گبرو توییت او به دلیل ایمیلی که اخیراً به لیست نامه های پستی زنان و متفقین Google Brain Google ارسال کرده “بلافاصله اخراج شد”.
که در توییت های بعدی، گبرو توضیح داد که هیچ کس در گوگل صریحاً به او نگفته است که اخراج شده است. بلکه وی گفت که گوگل تعدادی از شرایط بازگشت وی را برآورده نمی کند و بلافاصله استعفا را پذیرفت ، زیرا معتقد بود که ایمیل وی “رفتاری را برآورده می کند که انتظارات مدیر گوگل را برآورده نمی کند”.
گبرو در ایمیلی که برای اولین بار توسط خبرنامه Platformer در روز پنجشنبه منتشر شد ، نوشت که او در گوگل “مرتباً از انسان خارج می شود” و از عدم تنوع مداوم این شرکت ابراز نگرانی می کند.

“زیرا گزارشگری صفر وجود ندارد. انگیزه ای برای استخدام 39٪ از زنان وجود ندارد: زندگی شما بدتر می شود وقتی که شروع به دفاع از افراد کم نماینده می کنید ، سایر رهبران را ناراحت می کنید وقتی که آنها نمی خواهند نمره خوبی به شما بدهند. به هیچ وجه اسناد یا گفتگوهای بیشتر نمی توانند به نتیجه برسند. “

گبرو همچنین از روند داخلی مربوط به بررسی مقاله تحقیقاتی که با دیگران در Google و خارج از شرکت تألیف کرده است ، ناامید شد که هنوز منتشر نشده است.

کار علمی مورد نظر

Gebru ، که در اواخر سال 2018 به Google پیوست ، به CNN Business گفت که این مقاله علمی درباره خطرات مدل های بزرگ زبان است – روند رو به رشد AI با راه اندازی سیستم های به طور فزاینده قادر است که می تواند چشمگیر ایجاد کند متن هایی با صدای انسان مانند دستور العمل ها ، شعرها و حتی مقالات خبری. این همچنین یک منطقه از هوش مصنوعی است که گوگل نشان داده است که فکر می کند برای آینده آن در جستجو مهم است.
گبرو گفت که این گزارش در کنفرانس عدالت ، پاسخگویی و شفافیت در ماه مارس ارائه شد و هیچ چیز غیر عادی در مورد نحوه ارسال مقاله برای بررسی داخلی به Google وجود ندارد. وی گفت که وی ایمیل را سه شنبه شب نوشت ، پس از مدتها رفت و برگشت با مدیریت هوش مصنوعی Google ، که در آن بارها و بارها به او گفته شد که برای ارائه کنفرانس سند را از ملاحظه خارج کند یا نام خود را از آن حذف کند.

گبرو به CNN Business گفت که روز چهارشنبه به او اطلاع داده شد که دیگر در این شرکت کار نمی کند. گبرو گفت: “واقعاً نباید اینطور بود.”

ایمیل به کارکنان Google Research ارسال شده است

سخنگوی گوگل گفت این شرکت نظری ندارد.

روز پنجشنبه ، جف دین ، ​​رئیس هوش مصنوعی گوگل ، در نامه ای به کارمندان Google Research که روز جمعه به صورت عمومی منتشر کرد ، به کارمندان دیدگاه خود را گفت: Gebru یک سند را نوشت ، اما دو هفته مورد نیاز را به شرکت نداد قبل از موعد مقرر آن را بررسی کنید وی نوشت كه این روزنامه در داخل بازبینی شد ، اما “شرایط انتشار ما را برآورده نمی كرد.”

دین اضافه کرد: “متأسفانه ، این مقاله خاص فقط با یک روز اخطار قبل از موعد مقرر به اشتراک گذاشته شد – ما برای این نوع بررسی به دو هفته زمان نیاز داریم – و سپس به جای انتظار برای بازخورد بازپرس ، برای ارسال تأیید شد و ارسال شد. ”

وی گفت Gebru با درخواست هایی که برای ماندن در Google باید پاسخ داده شود ، پاسخ داد. دین نوشت: “تیمنیت نوشت كه اگر ما این شرایط را برآورده نمی كنیم ، او گوگل را ترك می كند و در یك مهلت تعیین شده كار می كند.”

گبرو به سی ان ان بیزینس گفت که شرایط وی شامل شفافیت در مورد نحوه بارگیری مقاله و همچنین جلساتی با دین و مدیر عامل دیگر هوش مصنوعی در Google برای صحبت در مورد رفتار محققان بود.

دین نوشت: “ما تصمیم او را برای استعفا از Google قبول و احترام می گذاریم.” وی همچنین برخی از مراحل تحقیق و بررسی این شرکت را توضیح داد و گفت كه با تیم های تحقیقاتی Google ، از جمله تیم اخلاق هوش مصنوعی صحبت خواهد كرد ، “تا به آنها اطلاع دهد كه ما به شدت از این جریانهای مهم تحقیق حمایت می كنیم.”

به سرعت پشتیبانی را نشان دهید

درست پس از توییت اولیه Gebru در روز چهارشنبه ، همکاران و دیگران به سرعت پشتیبانی خود را از او به اشتراک گذاشتند ، از جمله مارگارت میچل ، که رهبر تیم Gebru در Google بود.

میچل: “امروز یک ضرر وحشتناک و تغییر دهنده زندگی در یک سال تلفات وحشتناک و تغییر دهنده زندگی است.” توییت در روز پنجشنبه “من نمی توانم درد از دست دادنtimnitgebru را به عنوان میزبان مشترکم به خوبی بیان کنم. من به دلیل او توانستم برتری پیدا کنم – مانند بسیاری دیگر. من بیشتر در شوک هستم.”
“من پشتت هستم ، مثل همیشه من” توییت بولاموینی ، که علاوه بر نویسندگی مقاله در سال 2018 با Gebru ، بنیانگذار لیگ الگوریتمی است. “شما درخشان و قابل احترام هستید. به سخنان کسانی گوش می دهید که به راحتی نادیده می گیرند. شما س difficultالات دشواری را می پرسید نه برای پیشرفت ، بلکه برای ارتقا جوامعی که مدیون آنها هستیم.”
Sherilyn Yifil ، رئیس جمهور و مشاور صندوق حمایت از حقوق و آموزش NAACP ، توییت، “من در مورد اعتیاد به هوش مصنوعی چیزهای زیادی از او آموختم. چه فاجعه ای است.”
از ظهر روز جمعه ، یک نشریه Medium با محکومیت عزیمت وی ​​، خواستار شفاف سازی درباره تصمیم Google در مورد مقاله تحقیق ، امضای بیش از 1300 کارمند Google و بیش از 1600 حامی علمی و AI را دریافت کرد. کسانی که از پشتیبانی آنها استفاده می کنند بسیاری از زنانی هستند که در صنعت فناوری با نابرابری دست و پنجه نرم کرده اند ، مانند الن پائو ، مدیر عامل پروژه شامل و مدیرعامل سابق Reddit. Ifeoma Ozoma ، کارمند سابق Google ، بنیانگذار Earthseed ؛ و مردیت ویتاکر ، مدیر دانشکده موسسه AI Now و سازمان دهنده اصلی Google Walkout 2018 ، که به آزار و اذیت جنسی و رفتارهای نادرست در این شرکت اعتراض دارد. بولوموینی ، و همچنین دانیل سیترون ، استاد حقوق متخصص در زمینه قلدری آنلاین در دانشگاه بوستون و همکار MacArthur Fellow 2019 ، شامل سایر افراد هستند.

سیترون به سی ان ان بیزینس گفت که وقتی صحبت از افشای ، روشن سازی و مطالعه نژادپرستی و نابرابری های داخلی موجود در سیستم های الگوریتمی است ، Gebru را “چراغ پیشرو” می داند. وی گفت که Gebru نشان داد که چقدر مهم است که در نحوه جمع آوری داده ها تجدیدنظر کنیم ، و اینکه آیا ما اصلاً باید از این سیستم ها استفاده کنیم مهم است.

وی گفت: “WTF ، گوگل؟” “متاسفم ، اما شما خوش شانس بودید که او حتی به کار شما آمد.”



[ad_2]

منبع: pezeshk-khabar.ir