Facebook Moderator တွေအနေနဲ့ ကလေးသူငယ်ညစ်ညမ်းမှုတွေကို အရေးယူဖို့ပျက်ကွက်နေဟုဆို
ကလေးသူငယ်မုဒိန်း ပပျောက်ရေးလှုပ်ရှားသူတစ်ဦးက တော့ Facebook ရဲ့ Policy တွေဟာ ကလေးသူငယ်တွေအတွက် လုံလောက်မှုမရှိဘူးလို့ ဆိုပါတယ်။ လူမှုကွန်ရက်တွေနဲ့ ဆိုရှယ်မီဒီယာတွေအတွက် Content Mod တွေအနေနဲ့ အဓိကတာဝန်က ကလေးသူငယ်ညစ်ညမ်းမှုတွေ မပြန့်ပွားစေဖို့ ထိန်ရတာဖြစ်ပါတယ်။ တစ်ကယ်လို့ တစ်စုံတစ်ရာတွေ့ရှိတယ်ဆိုရင်လည်း ကလေးသူငယ်မုဒိန်မှုပပျောက်ရေးကို အကြောင်းကြားဖို့တာဝန်ရှိပါတယ်။ Content Mod တွေအနေနဲ့ Child Porn တွေဖြစ်နိုင်ချေရှိမရှိကိုလည်း ဆုံးဖြတ်ရပြီး အရာရှိတွေနဲ့ ပူးပေါင်းဆောင်ရွက်ရတဲ့ ကိစ္စတွေလည်း ရှိပါတယ်။
လောလောဆယ်ပြဿနာမှာတော့ News York Times ရဲ့ သတင်းပေးချက်တွေအရ Facebook မှာ ကလေးသူငယ်ညစ်ညမ်းမှုတွေနဲ့ပတ်သတ်ပြီး တိုင်ကြားမှုပျက်ကွက်တာတွေရှိတယ်လို့ဆိုပါတယ်။ Facebook Training စာရွက်စာတမ်းတွေမှာ အသက်ပြည့်မှတိုင်ကြားရန်လို့ ညွန်ကြားချက်တွေပါဝင်တယ်လို့ CSAM ရဲ့ထုတ်ပြန်ချက်တွေမှာ ပါဝင်ပါတယ်။
အမေရိကန်နိုင်ငံ၊ ကယ်လီဖိုးနီးယားက Facebook အလုပ်နေရာတစ်ခုမှာ "တစ်ကယ်လို့ Content Mod ဟာ အဖြစ်အပျက်တစ်ခု၊ ပုံတစ်ခု၊ Video File တစ်ခုမှာ ခံရသူစာ ကလေး (သို့မဟုတ်) လူကြီးဖြစ်ကြောင်းကို အတည်မပြုနိုင်ရင် အဆိုပါလူကို လူကြီးအဖြစ် မှတ်ယူရမယ်လို့ စာထုတ်ပြန်ထားပါတယ်။ ဓာတ်ပုံတွေကိုလည်း သေချာစစ်ဆေးမှုမရှိဘူးလို့ ဆိုပါတယ်။
New York Times ကို Meta ရဲ့ လုံခြုံရေးခေါင်းဆောင် Antigone Davis ကတော့ ဒီအချက်ဟာမှန်ကန်ကြောင်းနဲ့ ဓာတ်ပုံတွေကို အသေးစိတ်မစစ်တာဟာ Facebook ပေါ်ကို ကိုယ်တုံးလုံးပုံတွေ တင်လေ့ရှိတဲ့ အသုံးပြုသူတွေရဲ့ လုံခြုံရေးကို အလေးပေးထားလို့ ခုလိုလုပ်တာလို့လည်း ပြောပါသေးတယ်။ Meta အနေနဲ့ ခုလိုကိစ္စတွေအတွက် ဝန်ထမ်းတွေကို အများကြီး ခန့်ထားသလိို နောက်ပိုင်းမှာ နည်းပညာတွေ Ai တွေကိုသုံးပြီး စစ်ဆေးဖို့ စီစဥ်နေတယ်လို့ဆိုပါတယ်။
Facebook အနေနဲ့မြန်မာနိုင်ငံမှာ အမုန်းစကားကိစ္စကို အဓိကထားကိုင်တွယ်နေပြီး အွန်လိုင်းမှာ အမုန်းစကားပြောသူတွေ၊ လူမျိုးရေးခွဲခြားသူတွေကို အကောင့်ပိတ်တာ၊ Post တင်ခွင့်ပိတ်တာတွေ လုပ်ဆောင်နေပါတယ်။
Ref : The Verge