কৃত্রিম বুদ্ধিমত্তার (AI) কথা নিশ্চয়ই শুনেছেন। আপনি নিশ্চয়ই ডিপফেকের অপব্যবহারের অনেক রিপোর্ট পড়েছেন। এখন উদ্বেগ বেড়েছে দেশের সাধারণ নির্বাচনেও ডিপফেক ব্যবহার করা হতে পারে। একজন বড় নেতার ভুয়ো ভিডিও বানিয়ে আপনার মনের সঙ্গে খেলা যায়। জনগণের মূল্যবান ভোট পাওয়ার জন্য ভোটারদের প্রতারিত করা হতে পারে। এই হুমকি সত্যিই বড় এবং নির্বাচন কমিশন এটি মোকাবেলা করার জন্য প্রস্তুতি নিচ্ছে।
অক্ষয় কুমার থেকে শুরু করে দক্ষিণী অভিনেত্রী রশ্মিকা মান্দানা পর্যন্ত এআই প্রযুক্তিতে তৈরি ডিপফেক ভিডিওর শিকার হয়েছেন। কিন্তু এই প্রযুক্তি সাধারণ নির্বাচনে ব্যবহার করা হতে পারে বড় কোনো নেতা বা দলের বিরুদ্ধে। শুধু তাই নয়, তার ভুয়ো ভিডিও বা অডিও হোয়াটসঅ্যাপ, ইনস্টাগ্রাম, ফেসবুক বা এক্স (টুইটার) হ্যান্ডেলে ভাইরাল হতে শুরু করলে কী হবে। সেই নেতা বা দল যাঁর পক্ষে ভোট দেওয়ার সিদ্ধান্ত নিয়েছিলেন, কিন্তু ভিডিওতে তাঁর কথা বা প্রতিশ্রুতি যদি আপনার কাছে আবেদন না করে, তাহলে ভাবুন কী হবে?
তাহলে আপনি অজান্তে প্রথমে সেই ভিডিওটিকে সত্য বলে মেনে নেবেন এবং তারপর সেই নেতার বিরুদ্ধে ভোট দেবেন, যার কারণে তিনি নির্বাচনে হেরে যাবেন। যেখানে তিনি কখনোই এমন কিছু বলতেন না বা করতেন না।
নির্বাচনে ডিপফেক ষড়যন্ত্র
নির্বাচনে যেকোনো বড় তারকার সঙ্গেও এই ষড়যন্ত্র হতে পারে। যেটিতে ওই তারকার মুখ ও কণ্ঠ ব্যবহার করা যাবে। কোনো নামকরা নেতা বা দলের হয়ে প্রচার চালাতে দেখা যেতে পারে এই তারকাকে। আপনি অজান্তেই সেই ভিডিওটিকে সত্য হিসেবে গ্রহণ করবেন এবং এর আবেদনের ভিত্তিতে আপনি আপনার মূল্যবান ভোট অন্য কোনো দলকে দেবেন।
Google ডিপফেকের উপর নিয়ন্ত্রণ কঠোর করবে
নির্বাচনে এমনটি হওয়ার প্রবল সম্ভাবনা রয়েছে। এ নিয়ে উদ্বিগ্ন নির্বাচন কমিশন। হুমকি মোকাবেলায় গুগলের সঙ্গে একটি চুক্তি স্বাক্ষরিত হয়েছে। চুক্তির অধীনে, গুগল তার ব্যবহারকারীদের আগামী দিনে ইউটিউবে এবং অনুসন্ধানে সঠিক নির্বাচন-সম্পর্কিত তথ্য সরবরাহ করবে। জনগণকে হিন্দি ও ইংরেজি উভয় ভাষাতেই ভোট দেওয়ার সঠিক তথ্য দেওয়া হবে।
নির্বাচনের সময় এআই জেনারেটেড কনটেন্টের আধিপত্য বন্ধ করার চেষ্টা করা হবে। কিছু বৈশিষ্ট্য প্রদান করা হবে যার মাধ্যমে সাধারণ ব্যবহারকারীরা এআই তৈরি করা জাল সামগ্রী সনাক্ত করতে সক্ষম হবে।
ডিপফেকের অপব্যবহার হচ্ছে দ্রুত
আপনি হয়তো জানেন না যে গত দুই বছর ধরে ভোটারদের বিভ্রান্ত করার জন্য বিশ্বের বিভিন্ন দেশে নির্বাচনে ডিপফেক ব্যবহার করা হচ্ছে। গত বছরের সেপ্টেম্বরে স্লোভাকিয়ায় সাধারণ নির্বাচন অনুষ্ঠিত হয়। প্রগতিশীল স্লোভাকিয়া পার্টির নেতা সিমেকা নির্বাচনে হেরে যান কারণ ভোটের মাত্র দুই দিন আগে তার একটি ভিডিও ভাইরাল হয়েছিল। এতে তাকে বলতে শোনা যায় যে তিনি নির্বাচনে জিতলে বিয়ারের দাম দ্বিগুণ করে দেবেন।
বাস্তবে তিনি এমন কোনো প্রতিশ্রুতি দেননি। বরং গভীর নকল প্রযুক্তি ব্যবহার করে কেউ তার নকল ভিডিও ভাইরাল করেছিল। ফলে নির্বাচনে তিনি হেরে যান। সম্প্রতি বিডেনের ভুয়ো কণ্ঠে নির্বাচন সংক্রান্ত একটি ভিডিও প্রকাশ করা হয় আমেরিকায়।
ভারতীয় নেতারাও শিকার হন
এমনকি তেলেঙ্গানা নির্বাচনে, প্রাক্তন মুখ্যমন্ত্রী কে চন্দ্রশেখর রাওয়ের একটি ডিপফেক ভিডিও তৈরি করা হয়েছিল, যেখানে রাও কংগ্রেসের পক্ষে ভোট দিতে বলছেন। পরে তিনি পুলিশের কাছে এর বিরুদ্ধে অভিযোগ দায়ের করেন।নভেম্বরে রাজস্থান নির্বাচনের সময় প্রাক্তন মুখ্যমন্ত্রী অশোক গেহলটের কণ্ঠে হোয়াটসঅ্যাপের মাধ্যমে তাঁর নামে একটি কল করা হয়েছিল। এটি সম্পূর্ণ ভুয়ো ছিল।