این ابزار جدید می تواند به شما بگوید که آیا عکس های آنلاین شما به آموزش سیستم های تشخیص چهره کمک می کند یا خیر


آموزش در سیستم تشخیص چهره برای شناسایی افراد به تصاویر بسیاری از چهره ها نیاز دارد – تصاویری که اغلب از اینترنت جمع می شوند. معمولاً تشخیص اینکه تصاویری که بارگذاری کرده اید در بین آنها است یا نه غیرممکن است.

Exposed.ai که در ژانویه منتشر شد ، به شما اجازه می دهد تا بدانید آیا از عکس هایی که در سایت اشتراک تصویر Flickr قرار داده اید برای پیشبرد این برنامه بحث برانگیز هوش مصنوعی استفاده شده است ، به شما امکان می دهد بیش از 3.6 میلیون عکس را در شش مجموعه داده تشخیص چهره جستجو کنید. این رقم اندک در مقایسه با میلیون ها عکس توزیع شده در مجموعه های بی شماری از داده های صورت است ، اما بسیاری از مردم هنوز از یافتن عکس ها – و چهره های خود متعجب خواهند شد.

آدام هاروی ، هنرمند و محققی که با همکاری هنرمند و برنامه ریز جولس لاپلاس و با همکاری برنامه نظارت بر نظارت بر فناوری غیرانتفاعی ، سایت را ایجاد کرد ، گفت: “ساده ترین فهمیدن آن شخصی تر است.” “گاهی اوقات به داشتن شواهد بصری کمک می کند.”

برای استفاده از سایت ، باید نام کاربری فلیکر ، آدرس اینترنتی عکس خاص فلیکر یا هشتگ (مانند “# عروسی”) خود را وارد کنید تا بفهمید عکس های شما شامل می شوند یا خیر. در صورت یافتن عکس ها ، Exposed.ai به عنوان یک عکس کوچک به همراه ماه و سالی که در حساب Flickr شما ارسال شده و تعداد تصاویر موجود در هر مجموعه داده به شما نشان می دهد.

جستجوی نام کاربری Flickr این نویسنده چیزی پیدا نکرد. با این حال ، جستجوی برخی از هشتگ های رایج نتایج زیادی را به همراه داشت ، اما برای افراد غریبه: “# عروسی” بیش از 103000 عکس را که در مجموعه داده های تشخیص چهره استفاده شده بود ، برگرداند ، در حالی که جستجوهای “# تولد” و “# مهمانی” ده ها هزار مورد تصاویر ، با چهره کودکان در بسیاری از اولین نتایج.

همانطور که هاروی سریعاً اشاره کرد ، Exposed.ai فقط مقدار کمی از داده های صورت مورد استفاده را تحقیق می کند ، زیرا بسیاری از شرکت ها به طور علنی نحوه دستیابی به داده های مورد استفاده برای آموزش سیستم های تشخیص چهره خود را فاش نمی کنند. وی گفت: “این نوک کوه یخ است.”

آژانس مرزی از حفاظت کافی و # 39؛  اطلاعات برای شناسایی افراد ، یافته های نگهبانان

سالهاست که محققان و شرکت ها برای جمع آوری و حاشیه نویسی تصاویر از انواع اشیا – – از جمله بسیاری از افراد – به اینترنت روی آورده اند و امیدوارند کامپیوترها توانایی بیشتری در درک جهان اطراف خود داشته باشند. این اغلب شامل استفاده از تصاویر فلیکر است که دارای مجوزهای Creative Commons هستند – اینها انواع خاصی از مجوزهای حق چاپ هستند که به وضوح شرایط استفاده و اشتراک گذاری چنین تصاویر و فیلم هایی توسط دیگران را بیان می کند – و همچنین بارگیری تصاویر از جستجوی Google Image ، گرفتن آنها از حسابهای عمومی اینستاگرام یا روشهای دیگر (بعضی از آنها قانونی است ، برخی دیگر شاید نه).

بسیاری از مجموعه داده های به دست آمده برای کارهای دانشگاهی مانند آموزش یا آزمایش الگوریتم تشخیص چهره در نظر گرفته شده است. اما تشخیص چهره به طور فزاینده ای توسط آزمایشگاه ها جایگزین می شود و به دامنه تجارت بزرگ تبدیل می شود ، زیرا شرکت هایی مانند مایکروسافت ، آمازون ، فیس بوک و گوگل آینده خود را روی هوش مصنوعی شرط بندی می کنند. نرم افزار تشخیص چهره به طور گسترده ای مورد استفاده قرار گرفته است – توسط پلیس ، در فرودگاه ها و حتی در تلفن های هوشمند و زنگ.
در پس زمینه اعتماد بیشتر به استفاده از داده های آنلاین توسط افراد ، مجموعه داده ها برای آموزش نرم افزار تشخیص چهره به نگرانی درباره محرمانه بودن و آینده ای که نظارت ممکن است بیشتر باشد ، تبدیل شده اند. سیستم های تشخیص چهره خود نیز به دلیل نگرانی در مورد دقت و تعصب نژادی اساسی ، بیشتر و بیشتر در حال مطالعه هستند ، بخشی از این به دلیل داده هایی است که آنها آموزش دیده اند.

به زودی انتظار مجموعه داده های بیشتری را داشته باشید

هاروی در ابتدا قصد داشت از فناوری تشخیص چهره استفاده کند تا به شما امکان جستجوی عکسهای خود را بدهد ، اما بعد متوجه شد که می تواند عکس ها را به افراد دیگری که فقط شبیه شما هستند نشان دهد. وی گفت ، جستجوی متنی برای مواردی مانند نامهای کاربری و هشتگهای فلیکر برای افراد “کمتر چشمگیر” است ، اما این یک روش ایمن تر برای نشان دادن اینکه عکسهای شما در مجموعه داده ها وجود دارد یا خیر ، است.

هاروی در حال حاضر قصد دارد دو مجموعه داده از افراد جمع آوری شده از اینترنت را به Exposed.ai اضافه کند ، از جمله مجموعه داده Flickr-Faces-HQ ، که توسط انویدیا جمع آوری شده و برای آموزش هوش مصنوعی برای ایجاد چهره های جعلی بسیار واقع گرایانه استفاده می شود. (انویدیا یک ابزار آنلاین برای بررسی اینکه آیا عکسهای شما در این مجموعه داده است یا نه ، اما به دنبال مجموعه داده های اضافی نیست) ارائه می دهد. این مورد مدتی طول خواهد کشید ، لیز اوسالیوان ، مدیر فناوری در STOP ، خاطرنشان می کند ، آنجا تنظیم می شود
تشخیص چهره فقط برای انسان نیست - همچنین یاد می گیرد خرس ها و گاوها را شناسایی کند

وقتی افراد در مورد نحوه استفاده از عکسهای خود بیشتر بدانند ، نحوه برخورد آنها مشخص نیست. کیسی فیسلر ، استادیار دانشگاه کلرادو بولدر که اخلاق استفاده از داده های عمومی را مطالعه می کند ، دریافت که مردم پاسخ های مختلفی دارند ، مثلاً از پیام های توئیتری آنها برای تحقیق استفاده شده است. آنها ممکن است گیج شوند ، شوم شوند ، یا اصلاً برایشان مهم نیست. با این حال ، در مورد عکسهایی که برای آموزش سیستمهای تشخیص چهره استفاده می شود ، وی مظنون است که مردم نمی دانند با فاش شدن تصاویرشان چه باید بکنند.

او گفت: “می بینی صورتت آنجاست.” “بعد چی؟”

در بسیاری از موارد ، پاسخ چندانی به این سوال داده نمی شود. هاروی گفت که او یک فرم به Exposed.ai اضافه می کند با اطلاعاتی که می تواند از نویسنده یک مجموعه داده بخواهد شما را از لیست تصویر خود حذف کند. وی گفت ، حتی اگر این کار انجام شود ، هر کسی که داده را در گذشته بارگیری کرده است ، عکسهای شما را از نسخه خود استخراج نمی کند. برخی از مجموعه های داده – مانند MegaFace ، که توسط محققان دانشگاه واشنگتن در سال 2016 منتشر شد – دیگر به اشتراک گذاشته نمی شوند ، اما نسخه ها اکنون به طور گسترده توزیع می شوند. هاروی توصیه می کند از افرادی که نمی خواهند تصاویر آنها برای آموزش تشخیص چهره استفاده شود ، یا آنها را به صورت آفلاین دربیاورید ، یا آنها را خصوصی کنید.

هاروی گفت: “هیچ بهترین حالت واقعی وجود ندارد.” “فقط سناریوهایی با یک مورد بدتر وجود دارد.”


منبع: pezeshk-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>