প্রবৃদ্ধিমুখী কৃত্রিম বুদ্ধিমত্তায় মনোযোগ ফেসবুকের

ফেসবুক সবসময়ই তার প্রবৃদ্ধির দিকে নজর দিয়ে থাকে। অধিক ব্যবহারকারী, অধিক জনসংযোগ ও অধিক আয়ের দিকে সামাজিক যোগাযোগ মাধ্যমটির লক্ষ্য স্থির থাকে। ফেসবুকের এমন লক্ষ্যই তাকে ভুল তথ্য ছড়ানোর দিকে উৎসাহিত করেছে বলে প্রকাশ পেয়েছে যুক্তরাষ্ট্রের ম্যাসাচুসেটস ইনস্টিটিউট অব টেকনোলজির (এমআইটি) একটি টেকনোলজি রিভিউতে। খবর দ্য ভার্জ।

রিভিউটিতে দেখানো হয়েছে পোস্টগুলোতে এনগেজমেন্ট কমে যাওয়ার শঙ্কায় কীভাবে ভুল তথ্যের বিরুদ্ধে অবস্থান নেয়াকে ফেসবুক নিরুৎসাহিত করেছে।

রিভিউর লেখক কারেন হো বলেন, যদি কোনো বুদ্ধিমত্তার মডেল পোস্টের এনগেজমেন্ট অধিক হারে কমিয়ে দেয়, তাহলে তাতে বিপর্যয় ঘটে। এছাড়া সবগুলো পোস্টই সবসময় নজরদারিতে রাখা হয়। তবে বিপত্তি ঘটে যখন এনগেজমেন্টের ক্ষেত্রে কোন কোন মডেল পোস্টগুলোর রিচ বাড়াতে সাহায্য করে তখনই। ফলে লোকজন যেসব ভুল তথ্য বা আপত্তিজনক জিনিস বেশি দেখতে পছন্দ করে, তাই সামনে চলে আসে।

রিভিউটিতে ডোনাল্ড ট্রাম্পের প্রেসিডেন্ট থাকাকালে ডানপন্থীদের ছড়ানো ভুল তথ্যের দিকে নজরদারিতার অভাবের প্রমাণও তুলে ধরা হয়। এগুলো তখনই ঘটতে শুরু করে যখন রিপাবলিকান দলের সদস্য ও সাবেক প্রেসিডেন্ট জর্জ ডব্লিউ বুশ প্রশাসনের সাবেক কর্মকর্তা জোয়েল কাপলান ফেসবুকের গ্লোবাল পাবলিক পলিসি-সংক্রান্ত ভাইস প্রেসিডেন্টের দায়িত্ব পালন করছিলেন।

এমআইটির রিভিউটিতে বলা হয়, ২০১৮ সালে মিয়ানমারে মুসলিম জনগোষ্ঠীর ওপর গণহত্যা চলাকালে ফেসবুকের কৃত্রিম বুদ্ধিমত্তা টুলগুলো হিংসা প্রচারকারীদের পক্ষে বেশ সহায়তা করেছে।

ক্যালিফোর্নিয়া বিশ্ববিদ্যালয়ের প্রফেসব হ্যানি ফরিদ বলেন, যখন আপনার ব্যবসায়িক উদ্দেশ্যই হবে সর্বোচ্চ এনগেজমেন্ট, তখন আপনি সত্যের প্রতি তেমন আগ্রহী হবেন না। কারণ এসব ভুল তথ্যই আপনার বন্ধু। আপনি তখন ক্ষতি, বিভক্তি ও বিতর্ক নিয়ে সচেতন থাকবেন না। হ্যানি ফরিদ এর আগে ছবি ও ভিডিওর মাধ্যমে ভুল তথ্য ছড়ানো রোধে ফেসবুকের সঙ্গে কাজ করেছেন।

ফেসবুকের কৃত্রিম বুদ্ধিমত্তা দলের সংজ্ঞা অনুযায়ী তাদের ফেয়ার পলিসি রক্ষণশীল ও উদারনৈতিক দলের ক্ষেত্রে সমানভাবে প্রযোজ্য। যারাই বেশি ভুল তথ্য ছড়াবে, টুলগুলো তাদের পোস্টের বিরুদ্ধেই ব্যবস্থা নেবে।

কিন্তু কাপলানের অধীনস্থ দলটি রক্ষণশীলদের প্রতি যথেষ্ট ব্যবস্থা নেয়া থেকে বিরত থেকেছে, যতটা ব্যবস্থা উদারপন্থীদের বিরুদ্ধে নেয়া হয়েছে। যখনই কোনো টুল সমানভাবে পোস্টগুলোর বিরুদ্ধে ব্যবস্থা নিয়েছে, তখনই তারা সেসব টুল বন্ধ করে দিয়েছে।

রিভিউতে দেখানো হয়, ফেসবুকের কৃত্রিম বুদ্ধিমত্তার দলটি একটি চিকিৎসা-সংক্রান্ত টুল বন্ধ করে দিয়েছিল, যা ভ্যাকসিন সম্পর্কে ভুল তথ্য ছড়ানোর ক্ষেত্রে বাধা দিচ্ছিল।

একজন সাবেক গবেষক বলেন, যখন টুলগুলোকে প্রভাবিত করা হয় তখন তা ব্যবহার করার আর কোনো গুরুত্ব থাকে না। ফলে তারা ভুল তথ্য ছাড়ানো ক্ষেত্রে বাধা দিতে তেমন কার্যকর হয় না।

রিভিউটিতে দেখানো হয় যে ফেসবুকের কৃত্রিম বুদ্ধিমত্তা-সংক্রান্ত অ্যালগরিদমে কিছু সমস্যা রয়েছে। যার ফলে মেশিন লার্নিং মডেলগুলো অনিচ্ছাকৃতভাবেই কিছু গোষ্ঠীর প্রতি বৈষম্যমূলক আচরণ করে থাকে।

কারেন হো বলেন, পক্ষপাতমূলক এসব টুলের পেছনে আরো অর্থ ব্যয় করার মানে হচ্ছে ভুল তথ্য ও ঘৃণামূলক বক্তব্যের সমস্যাগুলোকে এড়িয়ে চলা।

0Shares

Leave a Reply

Your email address will not be published. Required fields are marked *