[ad_1]

روز پنجشنبه ، فیس بوک گفت که سیستم های هوش مصنوعی خود 94.7٪ از 22.1 میلیون قطعه محتوای گفتار نفرت را که در سه ماهه سوم سال 2020 از یک سایت اجتماعی حذف کرده است ، پیدا کردند. این در مقایسه با هوش مصنوعی است که 80.5٪ از 6.9 میلیون محتوای بارگیری شده را در سه ماه مشابه سال قبل متوجه شده است. در سال 2017 ، این شرکت توانست با استفاده از هوش مصنوعی به طور فعالانه سخنان نفرت کمتری را کشف کند – 24٪ از کل محتوای نفرت که در آن زمان حذف کرده بود. این ارقام از آخرین ویرایش گزارش مربوط به کاربرد استانداردهای جامعه بدست آمده است که این شرکت انتشار آن را در سه ماهه آگوست آغاز کرد.

این به روزرسانی تنها چند روز پس از آن صورت گرفت که مدیر عامل فیس بوک مارک زاکربرگ درمورد مقررات اینترنتی به کنگره صحبت کرد ، در طی آن وی بارها و بارها به اعتماد این شرکت به الگوریتم ها برای کشف محتوای تروریستی و بهره برداری از کودکان قبل از مشاهده کسی اشاره کرد.
مانند بسیاری از شبکه های اجتماعی دیگر ، فیس بوک نیز به هوش مصنوعی کمک می کند تا به خدمه ای از افراد کمک کند تا محتوای کوه در حال رشد را در سیستم عامل و اینستاگرام خود که متعلق به خود است تعدیل کنند. کار دشوار و بی پایان حذف پستهای آزار دهنده کاربران است ، تا حدی به این دلیل که مردم در درک اینکه چه چیزی مثلاً یک عکس برهنه هنری را از یک عکس استثماری متمایز می کند یا اینکه چگونه کلمات و تصاویری که به نظر خودشان بی گناه هستند بی گناه هستند ، منحصر به فرد هستند. صدمه زدن هنگام جفت شدن
روز چهارشنبه ، مایک شروفر ، مدیر ارشد فناوری فیس بوک ، با یک تماس ویدیویی با خبرنگاران ، در مورد برخی از جدیدترین ابزارهای هوش مصنوعی که فیس بوک برای پیدا کردن محتوای مضر قبل از ویروسی شدن استفاده می کند ، توضیح داد ، مانند آنچه از داده های آنلاین استفاده می کند سیستم های فیس بوک برای بهبود ، به جای مجموعه ای از داده های آفلاین. وی گفت كه هدف او این است كه تا زمانی كه تعداد كمتری از افراد محتوای ناخواسته را در رسانه های اجتماعی ببینند ، فن آوری را به جلو سوق دهد. در گذشته ، فیس بوک به دلیل اعتماد زیاد به هنرمندان انسانی ، که به طور ذاتی آنها را در معرض محتوایی قرار می دهد که تماشای آنها وحشتناک است ، و همچنین به دلیل ضبط نکردن AI از جریان های زنده خشونت آمیز مانند عکس های جدید ، مورد انتقاد قرار گرفته است. مسجد در زلاند در مارس 2019

شرپفر گفت: “بدیهی است که من تا وقتی که کارمان تمام نشده خوشحال نیستم.” “و کار ما تمام نشده است.”

اما پیچیده ترین محتوایی که هوش مصنوعی می تواند درک کند ، همچنان محتوایی است که به ظرافت ها و زمینه متکی است – شخصیت هایی که کامپیوترها آنها را یاد نگرفته اند. شروفر گفت که فیس بوک اکنون در تلاش است تا الگوهای رفتاری متنفر را کشف کند؛ این شرکت در بهار یک مجموعه داده در دسترس عموم مرتبط با چنین محتوایی را منتشر کرد ، امیدوار است که به محققان در بهبود قابلیت های شناسایی کمک کند. وی به عنوان مثالی از محتوایی که می تواند مضر باشد اما می تواند زیر رادار AI پرواز کند ، تصویری از یک گورستان را پوشانده است که با متن “شما اینجا تعلق دارید” پوشانده شده است.

وی در بیرون گفت: “اگر من یک متن روی هم قرار داشتم که می گفت:” تو اینجا هستی “و تصویر پس زمینه یک زمین بازی است ، خوب است. اگر این یک قبرستان باشد ، می توان از آن به عنوان نفرت از شما ، به عنوان یک طبقه هدفمند مردم تعبیر کرد.” .

[ad_2]

منبع: pezeshk-khabar.ir