Facebook Exec می گوید الگوریتم ها کاربران را در برابر "سخنان نفرت انگیز" محافظت می کند

Facebook Exec می گوید الگوریتم ها کاربران را در برابر “سخنان نفرت انگیز” محافظت می کند


نایب رئیس سیاست و امور جهانی این شرکت در مصاحبه های روز یکشنبه مدعی شد که الگوریتم های بحث برانگیز فیس بوک از کاربران آن در برابر قرار گرفتن در معرض محتوای افراطی ، سخنان نفرت انگیز و اطلاعات غلط محافظت می کند.

نیک کلگ از فیس بوک در برابر ادعاهای افشاگر فرانسیس هوگن دفاع کرده است که الگوریتم های آن محتوای تقلبی و محتوای افراطی را هدایت می کند – اما تاکید کرد که این شرکت نمی تواند اطلاعات غلط و سخنان نفرت را به طور کامل از سیستم عامل خود حذف کند.

کلگ به دانا باش در گفتگوی CNN State of the Union گفت: “اگر الگوریتم ها را حذف کنید … اولین چیزی که اتفاق می افتد این است که مردم بیشتر ، نه کمتر ، سخنان نفرت انگیز – بیشتر ، نه کمتر” ، اطلاعات غلط را می بینند. “این الگوریتم ها به گونه ای طراحی شده اند که تقریباً مانند فیلترهای بزرگ هرزنامه برای شناسایی و توقف محتوای بد عمل می کنند.”

وی گفت: “به ازای هر 10000 بیت محتوا ، تنها پنج بیت سخنان نفرت انگیز مشاهده خواهید کرد.” “ای کاش می توانستیم آن را به صفر برسانیم. ما یک سوم جمعیت جهان را در سکوهای خود داریم. البته ما خوبی ها ، بدی ها و زشتی های انسان را در سکوهای خود می بینیم.”

کلگ به باش اصرار داشت که الگوریتم های فیس بوک نقش ویژه ای در آغاز شورش های 6 ژانویه در کنگره ایفا نکرده اند. و در گفتگوی NBC’s Meet The Press ، چاک به تاد گفت که ادعای هاوگن در فیس بوک اقدامات برای کاهش کاربران را لغو کرده است. پس از انتخابات ریاست جمهوری 2020 “به سادگی درست نیست”.

کلگ به تاد می گوید: “ما در واقع اکثریت قریب به اتفاق آنها را تا زمان افتتاح نگه داشتیم و برخی را به طور دائم در محل خود نگه داشتیم.”

وی گفت که این شرکت از “ابزارهای خام” – مانند محدود کردن تیراژ ویدئو ، فرصت های مشارکت مدنی و تبلیغات سیاسی – که ناخواسته “محتوای سرگرم کننده ، کاملاً قانونی و بی گناه را به خود جلب کرده است” عقب نشینی کرده است.

نیک کلگ ، مدیرعامل فیس بوک ، تکذیب می کند که الگوریتم های این پلتفرم با شورش های 6 ژانویه در کنگره ایجاد شده است.
خبرگزاری فرانسه از طریق گتی ایماژ
تصویر لوگوی فیس بوک با افراد روی لپ تاپ خود.
فیس بوک همچنین به دلیل عدم اعتدال در برخورد با کارتل های مواد مخدر ، قاچاقچیان انسان و کودکان پدوفیل مورد بررسی قرار گرفته است.
رویترز

کلگ گفت: “ما این کار را بسیار استثنایی انجام داده ایم.” “ما فقط اجازه می دهیم محتوای کاملاً معمولی کمتر در پلت فرم ما معامله شود. این کاری است که ما به دلیل شرایط استثنایی انجام دادیم.”

کلگ به تاد گفت که مسئولیت “ایجاد تنظیم کننده دیجیتال” و تعیین قوانین برای حفظ حریم خصوصی داده ها و اصلاح محتوا بر عهده کنگره است.

وی گفت: “من فکر نمی کنم کسی بخواهد یک شرکت خصوصی این معاملات بسیار دشوار را بین آزادی بیان از یک سو و تنظیم محتوا یا حذف از سوی دیگر تفکیک کند.” یک اختلاف سیاسی اساسی وجود دارد. راست فکر می کند ما … بیش از حد محتوا را سانسور می کنیم و چپ فکر می کند که محتوای کافی را حذف نمی کنیم. “

نیک کلگ ، معاون سیاست و امور جهانی فیس بوک.
نیک کلگ ، مدیرعامل فیس بوک ، معتقد است که “فرصت های مشارکت مدنی و تبلیغات سیاسی” به شهرت شرکت لطمه می زند.
dpa اتحاد / تصویر از طریق Getty I

کلگ به جورج استفانوپولوس از ABC گفت که مقایسه اطلاعات فیس بوک در مورد آسیب محصولات این شرکت به کودکان و جامعه با آگاهی شرکت های دخانیات از خطرات سیگار “بسیار گمراه کننده” است.

او گفت: “در دهه های 80 و 90 ،” قیاس بین تماشای زیاد تلویزیون شبیه به اعتیاد به الکل بود ، یا بازی های بازی مانند Pac-Man مانند مصرف مواد مخدر است. ” “ما نمی توانیم طبیعت انسان را تغییر دهیم. شما همیشه چیزهای بدی را در اینترنت خواهید دید.”

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *