ভুয়া পর্নোগ্রাফিক ভিডিও ক্লিপ তৈরির বিষয়টি নতুন নয়। ‘ডিপফেক’ ভিডিও এমনভাবে তৈরি করা হয়, বোঝার উপায় থাকে না ভিডিওটি সত্যি নয়। ডিপফেইক পর্নোগ্রাফি এখনই রোধ করতে না পারলে মারাত্মক আকার ধারণ করবে বলে সতর্ক করেছেন একজন আইন বিশেষজ্ঞ।
ডিপফেক প্রযুক্তির মাধ্যমে কম্পিউটারে কারসাজি করা ছবিতে এক ব্যক্তির সাদৃশ্য অন্যের ক্ষেত্রে প্রতিস্থাপনের জন্য ব্যবহৃত হয়। যেখানে দেখা যাবে—সংশ্লিষ্ট ব্যক্তি কথা বলছেন, বক্তৃতা বা যেকোনো কিছু করতে পারছেন খুব সুক্ষ্মভাবে। এ ধরনের ভূয়া ছবি বা ভিডিও দেখে সাধারণ অবস্থায় যে কেউ ধোকায় পড়ে যাবে।
অধ্যাপক ক্লার ম্যাকগ্লিন বলেন, আজকাল একজন অপরাধীর পক্ষে একজন নারীকে ভার্চুয়াল আবহে হেনস্থা করা খুব সহজ হয়ে গেছে। তদন্ত করতে গিয়ে দেখা গেছে, ডিপফেইক সংক্রান্ত হয়রানির ঘটনা দিন দিন বেড়েই চলেছে। অনেক সময় ঘনিষ্ট মানুষদের মাধ্যমেও এমন হয়।
এ সফটওয়্যার মূলত ছবি কাজে লাগিয়ে নতুন ভিডিও তৈরি করতে পারে, যাতে ভিডিওতে থাকা ব্যক্তির মুখভঙ্গি, ঠোঁট বা অন্যান্য অঙ্গের নড়াচড়াও মেলানো যায়। এরপর থেকে এ প্রক্রিয়া আরও সহজ হয়ে গেছে। বিষয়টা এখন একটাই সহজ হয়েছে যে, শুধুমাত্র কয়েকটি ছবি দিয়েই ডিপফেক ভিডিও তৈরি করা যায়।
এমন ঘটনার শিকার হওয়া একজন ভুক্তভোগী নারী বলেন, ব্রেকআপের কিছু দিন পর সাবেক প্রেমিকের কাছ থেকে আমি কিছু ম্যাসেজ পাই। বার্তায় সে হুমকি দিয়ে বলে, আমার কিছু আপত্তিকর ছবি তার কাছে আছে! অথচ আমি জানিই না।
এ ঘটনার কয়েক মাস পর আমি একটি পর্নো সাইটের মডারেটরের কাছ থেকে ই-মেইল পান তিনি। সেখানে বলা হয়, আপনি কি নিশ্চিত যে, আপনার এই ছবিগুলো আপনি ইন্টারনেটে দিতে চান? তখনই তিনি বুঝতে পারেন, এটি ওই প্রেমিকের কাজ।
হেলেন মোর্ট নামের একজন লেখিকাও একজন ডিপফেইক ভুক্তভোগী। বছর দুয়েক আগে এক পর্নো সাইটে তার ভূয়া ছবি দেখতে পান, যা ২০১৭ সালে সেখানে প্রকাশ করা হয়।
এত দিন ডিপফেক ঠিকভাবে শনাক্ত করার প্রযুক্তি সহজলভ্য ছিল না। এ ক্ষেত্রে এগিয়ে এসেছে বিশ্বের বৃহত্তম সফটওয়্যার নির্মাতা প্রতিষ্ঠান মাইক্রোসফট। ডিপফেক শনাক্ত করতে বিশেষ টুল বা প্রোগ্রাম তৈরি করেছে মাইক্রোসফট।