• আজ ১১ই ভাদ্র, ১৪২৬ বঙ্গাব্দ

যে কারণে ৮৭ লাখ শিশুর নগ্ন ছবি সরালো ফেসবুক

১:৫২ পূর্বাহ্ণ | শনিবার, অক্টোবর ২৭, ২০১৮ বিজ্ঞান ও প্রযুক্তি

বিজ্ঞান ও প্রযুক্তি ডেস্ক :: গত তিন মাসে শিশুদের নগ্নতা প্রকাশ পায় এমন ৮৭ লাখ ছবি সরিয়েছে ফেসবুক। নিজেদের মডারেটরদের দিয়ে এই ছবিগুলো সরিয়য়ে ফেলা হয়েছে বলে জানিয়েছে ফেসবুক কর্তৃপক্ষ। বিবিসির এক প্রতিবেদনে বলা হয়েছে, শিশুদের সম্ভাব্য যৌনতাসূচক ছবি স্বয়ংক্রিয়ভাবে শনাক্ত করতে নতুন সফটওয়্যার বানানোর কথাও জানিয়েছে বিশ্বের সবচেয়ে বড় সামাজিক মাধ্যমটি।

প্ল্যাটফর্মটিতে ২০১৭ সালেই এই সফটওয়্যার আনা হলেও সে সময় তা উন্মুক্ত ছিল না, এখন এটি পাবলিক করা হয়েছে বলে উল্লেখ করা হয় বিবিসি’র প্রতিবেদনে।

ফেইসবুক জানিয়েছে, শিশুদের যৌন নিপীড়নের দিকে নিয়ে যাওয়ার চেষ্টা করা হচ্ছে এমন সম্ভাব্য ঘটনাগুলো শনাক্ত করতেও আরেকটি প্রোগ্রাম বানানো হয়েছে। সরিয়ে দেওয়া ৮৭ লাখ ছবির মধ্যে ৯৯ শতাংশই কোনো ব্যবহারকারী অভিযোগ করার আগে সরিয়ে ফেলা হয়েছে।

পেডোফাইল বা শিশু যৌন নিপীড়করা বিভিন্ন ‘সিক্রেট’ গ্র“পের মাধ্যমে শিশুদের অশ্লীল ছবি ছড়াচ্ছে- ২০১৬ সালে এমন খবর প্রকাশ করে ব্রিটিশ সংবাদমাধ্যমটি। এরপর ২০১৭ সালে প্ল্যাটফর্মটিতে শিশু যৌন নিপীড়নমূলক কনটেন্ট বেড়ে যাওয়া নিয়ে কমন্স মিডিয়া কমিটি-এর চেয়ারম্যান ডেমিয়ান কলিন্স-এর সমালোচনার মুখোমুখি হয় ফেসবুক।

ফেসবুকের বৈশ্বিক নিরাপত্তা প্রধান অ্যান্টিগোন ডেভিস বলেন, শিশু নগ্নতা বা নিপীড়নমূলক কনটেন্ট শনাক্তে ব্যবস্থা আনার কথা ভাবছে ফেসবুক। এসব ব্যবস্থা ফেসবুক অধীনস্থ ছবি শেয়ারিং অ্যাপ ইনস্টাগ্রামেও আনার পরিকল্পনা রয়েছে বলেও জানান তিনি।

এ ছাড়াও ফেসবুক কর্তৃপক্ষ অভিযোগ পেয়েছে এমন শিশু যৌন নিপীড়নমূলক কনটেন্ট সরাতে আলাদা একটি সিস্টেম ব্যবহার করা হয়েছে। এ ধরনের কনটেন্ট নিয়ে ফেসবুককে অভিযোগ করেছে মার্কিন অলাভজনক সংস্থা ন্যাশনাল সেন্টার ফর মিসিং অ্যান্ড এক্সপ্লয়েটেড চিলড্রেন (এনসিইএমইসি)।