কাঁটা দিয়ে কাঁটা তুলবে গুগল

Evaly in News page (Banner-2)

টেক শহর কনটেন্ট কাউন্সিলর : ক্ষতিকর ডিপফেইক ভিডিও ছড়িয়ে ফায়দা লুটছে অনেকেই। সেই ডিপফেইক ভিডিও এমনভাবে তৈরি যে সাধারণ মানুষ সেগুলোর সত্য-মিথ্যা নির্ণয় করতে পারে না।

এবার সেই ক্ষতিকর ডিপফেইক ভিডিও ধরতে নতুন করে অন্তত তিন হাজার ডিপফেইক ভিডিও ছড়িয়ে দিচ্ছে সার্চ জায়ান্ট গুগল।

এই ভিডিওগুলোও তৈরি করা হয়েছে কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে।

এগুলো বিভিন্ন অভিনেতাদের, যাদের মুখ ও চেহারা তৈরিতে ব্যবহার করা হয়েছে এআই। এগুলো খালি চোখে ধরা খুব কঠিন।

গুগল মনে করছে, এই ভিডিওগুলো গবেষকদের ডিপফেইক ভিডিও ধরতে নানান ধরনের টুলস তৈরিতে সহায়তা করবে।

কিন্তু এটি প্রশ্ন উঠেছে, কারণ এগুলো কনপিরেসি থিওরি বা কোনো পোপাগান্ডা চালাতে সহায়তা করতে পারে অন্য পক্ষকে।

ডিপফেইক ভিডিও তৈরির জন্য কোনো রাজনীতিবিদ বা অভিনেতা কিংবা বিভিন্ন অঙ্গনের তারকাদের ভিডিও ও অডিও ক্লিপ সংগ্রহ করে। এরপর সেগুলোতে এআই ব্যবহার করে সম্পাদনা করা হয়। একটা পর্যায়ে কোনো পর্ন অভিনেতার শরীর সেসব শরীরে যুক্ত করে দেওয়া হয়। তাতে বোঝার কোনো উপায় থাকে না যে, এটি আসলে সত্যি নাকি মিথ্যা।

২০১৭ সালে ডিপফেইক আসার পর থেকে অনেক ধরনের ওপেন সোর্স প্লাটফর্ম তৈরি হয়েছে যার মাধ্যমে ডিপফেইক ভিডিও তৈরি করা হয়।

গুগল এক ব্লগ পোস্টে বলেছে, তারা ডিপফেইক প্রযুুক্তি নিয়ে অন্য বিভিন্ন প্রতিষ্ঠানের সঙ্গে পার্টনারশিপে কাজ করছে। এটিকে কিভাবে ধরা যাবে, সত্য মিথ্যা যাচাই করা যাবে সেটি নিয়ে সতর্ক রয়েছে প্রতিষ্ঠানটি।

প্রতিষ্ঠানটি ডিপফেইক ধরার জন্য একটা ডেটাবেইজও তৈরি করেছে। এছাড়াও এটি ধরতে গবেষকদের সমন্বয়ে নানামুখী কাজ করে যাচ্ছে বলে জানিয়েছে।

ইএইচ/ সেপ্টে ২৬/ ২০১৯/ ২০০০

*

*

আরও পড়ুন