Facebook Moderator တွေအနေနဲ့ ကလေးသူငယ်ညစ်ညမ်းမှုတွေကို အရေးယူဖို့ပျက်ကွက်နေဟုဆို

ကလေးသူငယ်မုဒိန်း ပပျောက်ရေးလှုပ်ရှားသူတစ်ဦးက တော့ Facebook ရဲ့ Policy တွေဟာ ကလေးသူငယ်တွေအတွက် လုံလောက်မှုမရှိဘူးလို့ ဆိုပါတယ်။ လူမှုကွန်ရက်တွေနဲ့ ဆိုရှယ်မီဒီယာတွေအတွက် Content Mod တွေအနေနဲ့ အဓိကတာဝန်က ကလေးသူငယ်ညစ်ညမ်းမှုတွေ မပြန့်ပွားစေဖို့ ထိန်ရတာဖြစ်ပါတယ်။ တစ်ကယ်လို့ တစ်စုံတစ်ရာတွေ့ရှိတယ်ဆိုရင်လည်း ကလေးသူငယ်မုဒိန်မှုပပျောက်ရေးကို အကြောင်းကြားဖို့တာဝန်ရှိပါတယ်။ Content Mod တွေအနေနဲ့ Child Porn တွေဖြစ်နိုင်ချေရှိမရှိကိုလည်း ဆုံးဖြတ်ရပြီး အရာရှိတွေနဲ့ ပူးပေါင်းဆောင်ရွက်ရတဲ့ ကိစ္စတွေလည်း ရှိပါတယ်။

လောလောဆယ်ပြဿနာမှာတော့ News York Times ရဲ့ သတင်းပေးချက်တွေအရ Facebook မှာ ကလေးသူငယ်ညစ်ညမ်းမှုတွေနဲ့ပတ်သတ်ပြီး တိုင်ကြားမှုပျက်ကွက်တာတွေရှိတယ်လို့ဆိုပါတယ်။ Facebook Training စာရွက်စာတမ်းတွေမှာ အသက်ပြည့်မှတိုင်ကြားရန်လို့ ညွန်ကြားချက်တွေပါဝင်တယ်လို့ CSAM ရဲ့ထုတ်ပြန်ချက်တွေမှာ ပါဝင်ပါတယ်။

အမေရိကန်နိုင်ငံ၊ ကယ်လီဖိုးနီးယားက Facebook အလုပ်နေရာတစ်ခုမှာ "တစ်ကယ်လို့ Content Mod ဟာ အဖြစ်အပျက်တစ်ခု၊ ပုံတစ်ခု၊ Video File တစ်ခုမှာ ခံရသူစာ ကလေး (သို့မဟုတ်) လူကြီးဖြစ်ကြောင်းကို အတည်မပြုနိုင်ရင် အဆိုပါလူကို လူကြီးအဖြစ် မှတ်ယူရမယ်လို့ စာထုတ်ပြန်ထားပါတယ်။ ဓာတ်ပုံတွေကိုလည်း သေချာစစ်ဆေးမှုမရှိဘူးလို့ ဆိုပါတယ်။

New York Times ကို Meta ရဲ့ လုံခြုံရေးခေါင်းဆောင် Antigone Davis ကတော့ ဒီအချက်ဟာမှန်ကန်ကြောင်းနဲ့ ဓာတ်ပုံတွေကို အသေးစိတ်မစစ်တာဟာ Facebook ပေါ်ကို ကိုယ်တုံးလုံးပုံတွေ တင်လေ့ရှိတဲ့ အသုံးပြုသူတွေရဲ့ လုံခြုံရေးကို အလေးပေးထားလို့ ခုလိုလုပ်တာလို့လည်း ပြောပါသေးတယ်။ Meta အနေနဲ့ ခုလိုကိစ္စတွေအတွက် ဝန်ထမ်းတွေကို အများကြီး ခန့်ထားသလိို နောက်ပိုင်းမှာ နည်းပညာတွေ Ai တွေကိုသုံးပြီး စစ်ဆေးဖို့ စီစဥ်နေတယ်လို့ဆိုပါတယ်။

Facebook အနေနဲ့မြန်မာနိုင်ငံမှာ အမုန်းစကားကိစ္စကို အဓိကထားကိုင်တွယ်နေပြီး အွန်လိုင်းမှာ အမုန်းစကားပြောသူတွေ၊ လူမျိုးရေးခွဲခြားသူတွေကို အကောင့်ပိတ်တာ၊ Post တင်ခွင့်ပိတ်တာတွေ လုပ်ဆောင်နေပါတယ်။

Ref : The Verge

Sai Wai Yan Phyo

Tech Enthusiast

Previous
Previous

“အားသွင်းမြန်ဆန် အသုံးခံ” သည့် OPPO A Series အသစ် OPPO A76 မြန်မာနိုင်ငံ ဈေးကွက်သို့ ရောက်ရှိ

Next
Next

WhatsApp Voice Messages အတွက် Features အသစ်များ