ডিপফেক: এগুলো কী, কিভাবে কাজ করে এবং কিভাবে শনাক্ত করা যায়

  • ডিপফেক হলো কৃত্রিম বুদ্ধিমত্তা (AI) ব্যবহার করে তৈরি করা নকল ভিডিও, ছবি বা অডিও সামগ্রী যা বাস্তবিকভাবে একজন ব্যক্তির মুখ বা কণ্ঠস্বর অনুকরণ করে।
  • তাদের প্রযুক্তি গভীর নিউরাল নেটওয়ার্ক এবং GAN মডেলের উপর ভিত্তি করে তৈরি যা বিপুল পরিমাণে ডেটা থেকে প্যাটার্ন শেখে।
  • সৃজনশীল ব্যবহারের পাশাপাশি, তারা ভুল তথ্য, জালিয়াতি, সাইবার বুলিং এবং সুনাম ও গোপনীয়তার গুরুতর ক্ষতির সুযোগ করে দেয়।
  • নিজেদের রক্ষা করার জন্য, সমালোচনামূলক চিন্তাভাবনা, উৎস যাচাইকরণ, সনাক্তকরণ সরঞ্জাম এবং ভালো সাইবার নিরাপত্তা অনুশীলনগুলিকে একত্রিত করা গুরুত্বপূর্ণ।

ডিপফেক কী এবং কীভাবে সেগুলি সনাক্ত করা যায়?

আমরা এমন এক সময়ে বাস করি যখন কোনও কিছু সত্য বলে মেনে নেওয়ার জন্য কেবল দেখা বা শোনাই যথেষ্ট নয়।রাজনীতিবিদদের অশ্লীল কথা বলার অতিবাস্তববাদী ভিডিও, নির্বাহীদের বহু মিলিয়ন ডলার স্থানান্তরের আদেশ দেওয়ার অডিও রেকর্ডিং, অথবা সোশ্যাল মিডিয়ায় প্রচারিত ভুয়া অন্তরঙ্গ ছবি... এই সবই সম্ভব হয়েছে... deepfakesআর আমাদের মধ্যে যে কেউ এর শিকার হতে পারে; আপনাকে বিখ্যাত হতে হবে না।

এগুলো কী, কিভাবে এগুলো তৈরি হয়েছে, এগুলোর ঝুঁকি কী, এবং সর্বোপরি, সম্পূর্ণরূপে বোঝার জন্য, আমরা কীভাবে তাদের সনাক্ত করতে পারি এবং নিজেদের রক্ষা করতে পারি? একটি মৌলিক ডিজিটাল দক্ষতায় পরিণত হয়েছে, যা ইমেলকে কীভাবে আলাদা করতে হয় তা জানার মতোই গুরুত্বপূর্ণ। ফিশিং অথবা মোবাইল ফোনের গোপনীয়তা সেটিংস কনফিগার করুন।

ডিপফেক কী এবং কেন তারা এত জনপ্রিয় হয়ে উঠেছে?

ডিপফেক হল কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে তৈরি বা ব্যবহার করা জাল অডিওভিজ্যুয়াল কন্টেন্ট (ভিডিও, ছবি বা অডিও) যাতে এগুলো সম্পূর্ণরূপে খাঁটি দেখায়। শব্দটি "" এর সংমিশ্রণ থেকে এসেছে।গভীর" (দ্বারা গভীর জ্ঞানার্জন অথবা গভীর শিক্ষা) এবং "নকল"(মিথ্যা)। অর্থাৎ, এগুলো মেশিন লার্নিং অ্যালগরিদমের উপর ভিত্তি করে তৈরি গভীর জালিয়াতি যা মানুষের বৈশিষ্ট্য, অঙ্গভঙ্গি এবং কণ্ঠস্বরকে বাস্তবতার সাথে অনুকরণ করতে সক্ষম, যা প্রথম নজরে যে কাউকে বোকা বানাতে পারে।"

যদিও ছবি এবং শব্দের হেরফের একটি দীর্ঘ ইতিহাস রয়েছে, বর্তমান ডিপফেকের উত্থান শুরু হয়েছিল ২০১৭ সালের দিকে।এটি সব শুরু হয়েছিল যখন একজন রেডডিট ব্যবহারকারী অশ্লীল ভিডিও পোস্ট করতে শুরু করেছিলেন যেখানে তিনি বিখ্যাত অভিনেত্রীদের মুখগুলি ডিজিটালভাবে অন্যদের মুখ দিয়ে প্রতিস্থাপন করেছিলেন। তারপর থেকে, প্রযুক্তিটি আরও ব্যাপক হয়ে উঠেছে, সরঞ্জামগুলি ক্রমশ সহজলভ্য হয়ে উঠেছে এবং ফলাফলগুলি সনাক্ত করা আরও কঠিন হয়ে পড়েছে।

এই বিবর্তন ডিপফেককে নিছক বিনোদনের চেয়ে অনেক বেশি গুরুতর কিছুতে রূপান্তরিত করেছে: তারা ইতিমধ্যেই বিভ্রান্তিকর তথ্য, জালিয়াতি, সাইবার বুলিং এবং চাঁদাবাজির হাতিয়ার।যার সরাসরি প্রভাব ব্যক্তি, কোম্পানি এবং প্রতিষ্ঠানের সুনামের উপর, এমনকি নির্বাচনী প্রক্রিয়া এবং দেশের স্থিতিশীলতার উপরও পড়ে।

হোয়াটসঅ্যাপ মেটা এআই চ্যাট থিম, স্টিকার এবং লাইভ ফটো নিয়ে এসেছে
সম্পর্কিত নিবন্ধ:
হোয়াটসঅ্যাপের কৌশল: লুকানো বৈশিষ্ট্য, শর্টকাট এবং মূল সেটিংস

ডিপফেকের পেছনের প্রযুক্তি কীভাবে কাজ করে

একটি বিশ্বাসযোগ্য ডিপফেক তৈরি করার জন্য, একটি ভিডিও এডিটিং প্রোগ্রাম যথেষ্ট নয়। এর মূল চাবিকাঠি হলো গভীর নিউরাল নেটওয়ার্ক এবং বিপুল পরিমাণে ডেটা ব্যবহারের মাধ্যমে। (ছবি, ভিডিও, ভয়েস রেকর্ডিং)। এই উপাদান থেকে, AI একজন ব্যক্তির মুখ, কণ্ঠস্বর এবং নড়াচড়া কেমন তা "শিখে" যাতে পরবর্তীতে নতুন প্রেক্ষাপটে সেগুলি অনুকরণ করা যায়।

সবচেয়ে সাধারণ কৌশলটি যা হিসাবে পরিচিত তার উপর ভিত্তি করে তৈরি GAN (জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক)এই মডেলে, দুটি নিউরাল নেটওয়ার্ক সহযোগিতা করে—এবং প্রতিযোগিতা করে: একটি জাল ছবি বা অডিও তৈরি করে, এবং অন্যটি সেগুলি আসল না জাল তা সনাক্ত করার চেষ্টা করে। প্রক্রিয়াটি এতবার পুনরাবৃত্তি করা হয় যে, ধীরে ধীরে, জেনারেটর এমন সামগ্রী তৈরি করতে সক্ষম হয় যা বৈষম্যকারী আর জাল হিসাবে সনাক্ত করতে সক্ষম হয় না।

বাস্তবে, একটি মুখের ভিডিও তৈরি করতে, সিস্টেমটিকে হাজার হাজার ফিড দেওয়া হয় মূল মুখ এবং উপরে আরোপিত মুখের ফ্রেমএকটি "এনকোডার" অ্যালগরিদম সাধারণ বৈশিষ্ট্যগুলি (মুখের আকৃতি, হাড়ের গঠন, মৌলিক অনুপাত) সনাক্ত করে এবং সেগুলিকে একটি অভ্যন্তরীণ উপস্থাপনায় হ্রাস করে। তারপর, দুটি "ডিকোডার" সেই মুখগুলি পুনর্গঠন করে: একটি ব্যক্তি A এর জন্য এবং একটি ব্যক্তি B এর জন্য। তাদের মধ্যে তথ্য বিনিময়ের মাধ্যমে, ব্যক্তি A এর মুখ ব্যক্তি B এর অভিব্যক্তি, নড়াচড়া এবং অঙ্গভঙ্গি গ্রহণ করে।

কণ্ঠস্বরের ক্ষেত্রে, মডেলগুলি জটিল শব্দের সুর, ছন্দ, স্বরধ্বনি বা উচ্চারণের মতো বৈশিষ্ট্য বিশ্লেষণ করে। মানুষের কণ্ঠস্বরের প্রতি সেকেন্ডে হাজার হাজার ডেটা পয়েন্ট থাকে যা AI শিখতে পারে।মাত্র কয়েক মিনিটের পরিষ্কার অডিও দিয়ে কণ্ঠস্বর ক্লোন করার পর্যায়ে পৌঁছেছে, যার ফলে একটি বাস্তব রেকর্ডিংকে সংশ্লেষিত রেকর্ডিং থেকে আলাদা করা ক্রমশ কঠিন হয়ে উঠছে।

বর্তমানে প্রচলিত প্রধান ধরণের ডিপফেক

ডিপফেকের জগতে আমরা কারসাজি করা বিষয়বস্তুর ধরণ অনুসারে বেশ কয়েকটি বিভাগকে আলাদা করতে পারি। সবচেয়ে সাধারণগুলি মুখ এবং কণ্ঠস্বরের উপর ফোকাস করেযদিও আরও উন্নত রূপ আছে।

একদিকে আমাদের তথাকথিত আছে "গভীর মুখ"কোনগুলো ছবি বা ভিডিওর ডিপফেক যেখানে সম্পূর্ণ মুখ তৈরি বা প্রতিস্থাপন করুনএগুলি বাস্তব উপাদান দিয়ে শুরু করতে পারে, বেশ কয়েকটি মানুষের মুখ একত্রিত করে, অথবা এমনকি শুরু থেকে তৈরি করা যেতে পারে, যার ফলে এমন ব্যক্তিদের মুখ তৈরি হয় যাদের অস্তিত্ব নেই কিন্তু সম্পূর্ণ বাস্তব বলে মনে হয়। এই কৌশলগুলি একজনের মুখ অন্যজনের শরীরের উপর চাপিয়ে দেওয়ার জন্য এবং সিন্থেটিক চরিত্র তৈরি করার জন্য উভয়ই ব্যবহৃত হয়।

অন্যদিকে হয় "গভীর কণ্ঠস্বর"যা অডিওর উপর ফোকাস করে। এখানে, AI কে শিকারের ভয়েস রেকর্ডিং দিয়ে প্রশিক্ষণ দেওয়া হয় এবং তারপর, নতুন বার্তা তৈরি করে যা বাস্তব ব্যক্তির সাথে কার্যত অভিন্ন শোনায়।এই ধরণের জালিয়াতি ইতিমধ্যেই কর্পোরেট জালিয়াতিতে ব্যবহৃত হয়েছে, যেমন সুপরিচিত মামলা যেখানে একজন নির্বাহী তার সিইওর আদেশ মেনে চলার কথা ভেবে ২০০,০০০ ডলারেরও বেশি স্থানান্তর করেছিলেন, যখন বাস্তবে তিনি একটি ক্লোন করা কণ্ঠস্বর শুনতে পেয়েছিলেন।

আরও পরিশীলিত রূপ রয়েছে যা বেশ কয়েকটি উপাদানকে একত্রিত করে: ডিপফেক যা অঙ্গভঙ্গি, ভঙ্গি এবং পরিবেশ পরিবর্তন করেঅথবা যা কেবল মুখমণ্ডলই নয়, পুরো শরীরকেও পরিবর্তন করে, যদিও এর জন্য অনেক বেশি কম্পিউটিং শক্তির প্রয়োজন হয় এবং ঘরোয়া পরিবেশে এটি আরও কম দেখা যায়।

বাস্তবে কীভাবে একটি ডিপফেক তৈরি করবেন

যদিও এটা খুব প্রযুক্তিগত শোনাতে পারে, আজকাল একটি সাধারণ ডিপফেক তৈরি করা একটি ভালো কম্পিউটার বা এমনকি একটি শক্তিশালী মোবাইল ফোনের মাধ্যমে যে কারোরই নাগালের মধ্যে।যে ব্যক্তি এটি তৈরি করবে তার AI, সম্পাদনা এবং পোস্ট-প্রোডাকশন সম্পর্কে যত বেশি জ্ঞান থাকবে, ফলাফল তত সূক্ষ্ম এবং বাস্তবসম্মত হবে, তবে "প্রায় স্বয়ংক্রিয়" প্রোগ্রামগুলি বেশিরভাগ কাজ করে।

সরলীকৃত ভাষায়, প্রক্রিয়াটি সাধারণত এই ধাপগুলি অনুসরণ করে: প্রথমে, লক্ষ্যবস্তু ব্যক্তির অনেক ছবি, ভিডিও বা অডিও রেকর্ডিং সংগ্রহ করা হয়; তারপর, মডেলদের তাদের চারিত্রিক বৈশিষ্ট্যগুলি শেখার জন্য প্রশিক্ষণ দেওয়া হয়; এবং অবশেষে, এই মডেলটি একটি বেস ভিডিও বা অডিওতে প্রয়োগ করা হয় জাল কন্টেন্ট তৈরি করার জন্য।এরপর, দৃশ্যমান শিল্পকর্মগুলি (অদ্ভুত প্রান্ত, ভুল স্থানচ্যুত ছায়া, অদ্ভুত নড়াচড়া) ঐতিহ্যবাহী সম্পাদনা ব্যবহার করে সংশোধন করা হয়।

আরও উন্নত ক্ষেত্রে, ইতিমধ্যে আলোচিত GAN-এর মতো জটিল কৌশল ব্যবহার করা হয়। একটি জেনারেটর একটি মিথ্যা ফ্রেম তৈরি করে, ডিসক্রিমিনেটর এটি মূল্যায়ন করে, ত্রুটি গণনা করা হয় এবং পরামিতিগুলি সামঞ্জস্য করা হয়; এইভাবে, হাজার হাজার পুনরাবৃত্তি জড়িত, এটি বাস্তবতার এমন এক স্তরে পৌঁছে যা গড় মানুষের চোখকে ছাড়িয়ে যেতে পারে।এর পাশাপাশি, ফলাফলকে আরও সুন্দর করে তুলতে রঙ, আলো, লিপ-সিঙ্কিং এবং শব্দ মিশ্রণের সমন্বয় রয়েছে।

স্থির চিত্রের ক্ষেত্রে, নিম্নলিখিতগুলিও ব্যবহৃত হয়: নির্দিষ্ট কম্প্রেশন ত্রুটি বিশ্লেষণ (ELA) এবং মেটাডেটা বিশ্লেষণ সরঞ্জাম সম্ভাব্য কারসাজি শনাক্ত করার জন্য। তবে, সবচেয়ে পরিশীলিত নির্মাতারা ইতিমধ্যেই এই কৌশলগুলি সম্পর্কে অবগত এবং সেই তথ্য মুছে ফেলার বা পরিবর্তন করার চেষ্টা করেন যাতে এটি প্রতারণা প্রকাশ না করে।

ডিপফেকের ইতিবাচক ব্যবহার: সবকিছুই অন্ধকার নয়

তাদের খারাপ খ্যাতি সত্ত্বেও, ডিপফেকগুলিও চলচ্চিত্র, শিল্প, শিক্ষা এবং চিকিৎসার মতো ক্ষেত্রে তাদের বৈধ এবং সৃজনশীল প্রয়োগ রয়েছে।সমস্যাটি প্রযুক্তির নয়, বরং এটি কীভাবে ব্যবহৃত হয় তা নিয়ে।

অডিওভিজুয়াল শিল্পে এগুলি ব্যবহার করা হয়েছে ডিজিটালি অভিনেতাদের পুনরুজ্জীবিত করা বা "পুনরুজ্জীবিত" করা এবং দৃশ্যগুলি সম্পূর্ণ করার জন্য যখন দৃশ্যগুলি বাস্তবে চিত্রায়িত করা সম্ভব ছিল না। ডাবিংয়ে সংলাপ সামঞ্জস্য করতে, চিত্রগ্রহণের ত্রুটিগুলি সংশোধন করতে বা তথ্যচিত্রে ঐতিহাসিক ব্যক্তিত্বদের পুনর্নির্মাণের জন্যও এগুলি ব্যবহার করা হয়। রাজকুমারী লিয়ার পুনর্নির্মাণ বা "ডালি লাইভস" এর মতো নিমজ্জনকারী প্রদর্শনীর মতো উদাহরণগুলি দেখায় যে এই কৌশলগুলি সাংস্কৃতিক অভিজ্ঞতাকে কতটা সমৃদ্ধ করতে পারে।

শিক্ষা এবং প্রচারের ক্ষেত্রে, ডিপফেকগুলি বাস্তবসম্মত অবতার তৈরি করুন যা জটিল ধারণা ব্যাখ্যা করে বা জটিল পরিস্থিতি অনুকরণ করে প্রশিক্ষণ পেশাদারদের জন্য (পাইলট, স্বাস্থ্যসেবা কর্মী, নিরাপত্তা বাহিনী, ইত্যাদি)। "মিথ্যা কিন্তু প্রশংসনীয়" পরিস্থিতির নিয়ন্ত্রিত সৃষ্টি সংকট প্রতিক্রিয়া প্রস্তুতির জন্য কার্যকর।

থেরাপিউটিক ক্ষেত্রে, অত্যন্ত সংবেদনশীল ব্যবহার প্রস্তাব করা হয়েছে, যেমন কিছু লোককে দুঃখ সহ্য করতে সাহায্য করার জন্য নিয়ন্ত্রিত পুনর্নির্মাণের মাধ্যমে আঘাতমূলক স্মৃতির মুখোমুখি হওয়া, সর্বদা একটি অত্যন্ত কঠোর নীতিগত এবং ক্লিনিকাল কাঠামোর মধ্যে। ভয়েস ক্লোনিং রোগীদের যোগাযোগের ক্ষমতা আংশিকভাবে পুনরুদ্ধার করার জন্যও অন্বেষণ করা হয়, যেমনটি ঘটেছিল সুপরিচিত ব্যক্তিত্বদের ক্ষেত্রে যারা পুরানো রেকর্ডিংগুলির সাথে প্রশিক্ষিত অডিও মডেলগুলির জন্য তাদের কণ্ঠস্বর পুনরুদ্ধার করেছিলেন।

ব্যবসা এবং ই-কমার্স খাতে, ব্যক্তিগতকৃত অবতার সহ ভার্চুয়াল ফিটিং রুমের মতো অ্যাপ্লিকেশনগুলি অধ্যয়ন করা হচ্ছে, অথবা যেসব ভিডিও গেমে চরিত্ররা AI দ্বারা তৈরি আরও স্বাভাবিক কণ্ঠস্বরের সাথে কথা বলেএগুলো এমন ব্যবহার যা ভালোভাবে পরিচালিত হলে, অধিকার লঙ্ঘন না করেই মূল্য বৃদ্ধি করতে পারে।

ঝুঁকি এবং ক্ষতিকারক ব্যবহার: যখন ডিপফেক অস্ত্রে পরিণত হয়

বড় সমস্যা হলো, ভুল হাতে গেলে, এই প্রযুক্তিটি প্রতারণা, কৌশল এবং ক্ষতি করার জন্য একটি শক্তিশালী হাতিয়ারডিপফেক ইতিমধ্যেই বেশ কিছু উদ্বেগজনক ক্ষেত্রে ব্যবহার করা হচ্ছে।

সবচেয়ে গুরুতর একটি হল বিভ্রান্তিকর তথ্য এবং রাজনৈতিক কারসাজিসামরিক প্রত্যাহারের ঘোষণাকারী নেতাদের ভিডিও, বিস্ফোরক বিবৃতি, অথবা বানোয়াট স্বীকারোক্তি জনমতকে প্রভাবিত করতে পারে, আর্থিক বাজারকে অস্থিতিশীল করতে পারে, অথবা আন্তর্জাতিক সম্পর্কের উপর চাপ সৃষ্টি করতে পারে। সাম্প্রতিক সংঘাতগুলিতে ইতিমধ্যেই এমন ঘটনা দেখা গেছে যেখানে মিথ্যা আত্মসমর্পণ বক্তৃতা বা বানোয়াট রাজনৈতিক ঘোষণা প্রচার করা হয়েছে।

তারা একটি সাধারণ হাতিয়ারও হয়ে উঠেছে অপপ্রচার এবং সুনামহানি আক্রমণআপত্তিকর কন্টেন্ট সম্বলিত একটি মাত্র ভিডিওই একজন ব্যক্তির জনসাধারণের ভাবমূর্তি নষ্ট করার জন্য যথেষ্ট, এমনকি যদি পরে তা ভুয়া প্রমাণিত হয়। সোশ্যাল মিডিয়া এবং মেসেজিং অ্যাপের ভাইরাল প্রকৃতির কারণে সামাজিক এবং মানসিক ক্ষতি কয়েক ঘন্টার মধ্যেই ঘটে।

অর্থনৈতিক ক্ষেত্রও বাদ যায়নি: ভয়েস এবং ভিডিও ডিপফেক এখন একটি মূল উপাদান অত্যাধুনিক জালিয়াতি, পরিচয় চুরি, এবং সিইও জালিয়াতি কেলেঙ্কারীআক্রমণকারীরা ঊর্ধ্বতন নির্বাহী বা সরবরাহকারীদের ছদ্মবেশ ধারণ করে, অর্থ স্থানান্তর, সংবেদনশীল তথ্য, অথবা গুরুত্বপূর্ণ সিস্টেমে অ্যাক্সেস পেতে কল, ভিডিও কল বা ভয়েস বার্তা ব্যবহার করে যা বিশ্বাসযোগ্যভাবে বাস্তব বলে মনে হয়।

পরিস্থিতি বিশেষভাবে উদ্বেগজনক যেখানে সম্মতিহীন যৌন সামগ্রী তৈরি করাঅনলাইনে শনাক্ত করা বেশিরভাগ ডিপফেক কন্টেন্টই পর্নোগ্রাফিক, যেখানে প্রায়শই বিখ্যাত নারী বা সাধারণ মানুষের মুখ অন্তরঙ্গ ভিডিওতে ঢোকানো হয়। এটি সাইবার বুলিং, যৌন নির্যাতন, প্রতিশোধ বা সাধারণ অপমানের জন্য ব্যবহৃত হয়, যার ফলে ভুক্তভোগীদের জন্য অত্যন্ত গুরুতর আইনি এবং মানসিক পরিণতি হয়।

আরও সূক্ষ্ম কিন্তু সমানভাবে বিপজ্জনক একটি ঘটনাও রয়েছে: তথাকথিত "তথ্য সর্বনাশ" বা আস্থার সংকটযখন মানুষ খুব বিশ্বাসযোগ্য জাল কন্টেন্ট দেখতে অভ্যস্ত হয়ে যায়, তখন তারা সবকিছুতেই অবিশ্বাস করতে পারে, এমনকি আসল প্রমাণও। এটি "এটি কারসাজি করা হয়েছে" দাবি করে অসুবিধাজনক প্রমাণগুলিকে খারিজ করার জন্য যে কেউ একটি নিখুঁত প্রজনন ক্ষেত্র তৈরি করে।

ডিপফেক ম্যালওয়্যার: যখন প্রতারণার সাথে সাইবার আক্রমণ মিশে যায়

সাম্প্রতিক বছরগুলিতে এমন একটি ধারণার উদ্ভব হয়েছে যা দুটি বিপজ্জনক জগৎকে একত্রিত করে: ডিপফেক এবং ম্যালওয়্যার। ডিপফেকম্যালওয়্যার শব্দটি এমন কিছু আক্রমণকে বর্ণনা করতে ব্যবহৃত হয় যা বিভ্রান্তিকর প্রচারণা, আর্থিক জালিয়াতি, বা সাইবার গুপ্তচরবৃত্তিকে সমর্থন করার জন্য জেনারেটিভ এআই ব্যবহার করে।, আক্রমণ শৃঙ্খলে জাল ভিডিও বা অডিও একীভূত করা।

উদাহরণস্বরূপ, একজন আক্রমণকারী পারে একজন নির্বাহী হিসেবে নিজেকে উপস্থাপন করে কর্পোরেট ভিডিও কনফারেন্সে অনুপ্রবেশ করাক্লোন করা মুখ এবং কণ্ঠস্বর ব্যবহার করে, তারা গোপনীয় তথ্য পেতে পারে অথবা এমন নির্দেশনা দিতে পারে যা কেউ প্রশ্ন করবে না। কোনও কোম্পানির শেয়ারের দাম কমাতে, বাজারে আতঙ্ক ছড়িয়ে দিতে বা বিনিয়োগের সিদ্ধান্তগুলি হেরফের করার জন্য ভুয়া ভিডিওও ছড়িয়ে দেওয়া যেতে পারে।

এই আক্রমণগুলি কেবল সামাজিক প্রতারণার মধ্যেই সীমাবদ্ধ নয়: ঐতিহ্যবাহী ম্যালওয়্যার ডিপফেকের মানসিক প্রভাবের সুযোগ নিতে পারেএকটি উদ্বেগজনক ভিডিও ব্যবহারকারীদের প্রতারণা করে এমন একটি "প্যাচ" ডাউনলোড করতে বাধ্য করতে পারে যা আসলে একটি ভাইরাস, অথবা অফিসিয়াল কোম্পানির ডকুমেন্টেশনের ছদ্মবেশে একটি ক্ষতিকারক সংযুক্তি খুলতে বাধ্য করতে পারে।

এই ধরণের হুমকি দমন করার জন্য, এটি অপরিহার্য ভালো সাইবার নিরাপত্তা অনুশীলন (আপডেট করা অ্যান্টিম্যালওয়্যার, নেটওয়ার্ক সেগমেন্টেশন, শক্তিশালী প্রমাণীকরণ) একত্রিত করুন। কল, ভিডিও কল বা জরুরি ইমেলের সময় ডিজিটাল কারসাজি সনাক্তকরণ এবং পরিচয় যাচাইয়ের জন্য নির্দিষ্ট প্রশিক্ষণ সহ।

ডিপফেক কীভাবে শনাক্ত করবেন: লক্ষণ এবং ব্যবহারিক কৌশল

ডিপফেক চেনা সবসময় সহজ নয়, তবে এমন কিছু বিবরণ রয়েছে যা প্রতারণাকে দূরে সরিয়ে দিতে পারে, বিশেষ করে কম পালিশ করা মন্টেজগুলিতে। কিছু সূক্ষ্ম ত্রুটি লক্ষ্য করার জন্য আপনার চোখ এবং কানকে প্রশিক্ষণ দেওয়া মূল্যবান।.

দৃশ্যমান দিকগুলির ক্ষেত্রে, কিছু সাধারণ সূচক হল: অস্বাভাবিক পলক ফেলা (খুব বিরল বা বিরল)মুখের নড়াচড়া কিছুটা শক্ত, অতিরিক্ত মসৃণ বা প্লাস্টিকের মতো দেখতে ত্বক, মুখের চারপাশে ঝাপসা প্রান্ত, অদ্ভুত পটভূমির পরিবর্তন, অথবা আলোর ত্রুটি (অসম্ভব ছায়া, প্রতিফলন যা মিলছে না)। শটগুলি সাধারণত পুরো শরীরকে হেরফের এড়াতে ক্লোজ-আপ করা হয় এবং ভিডিওগুলি ছোট হতে থাকে কারণ অনেক সেকেন্ডের উচ্চ-মানের ফুটেজ তৈরি করতে প্রচুর প্রক্রিয়াকরণ শক্তির প্রয়োজন হয়।

এটাও মনোযোগ দেওয়ার মতো যে মুখ এবং শরীরের বাকি অংশের মধ্যে সামঞ্জস্যঅসঙ্গত ঘাড়, কখনও দেখা যায় না এমন হাত, অদ্ভুত ভঙ্গি, অথবা পোশাক যা প্রসঙ্গের সাথে খাপ খায় না। ধীর গতিতে ভিডিওটি চালানো মুখ, জিহ্বা বা দাঁতের ভিতরে লাফানো বা "গ্লিচ" সনাক্ত করতে সাহায্য করে - এমন কিছু জায়গা যা সঠিকভাবে পুনরায় তৈরি করা বিশেষভাবে কঠিন।

অডিওতে, একটি স্পষ্ট ইঙ্গিত হল যে ঠোঁট-সিঙ্ক্রোনাইজেশনশব্দ পরিবেশে অদ্ভুত পরিবর্তনগুলিও লক্ষণীয় হতে পারে, যেমন পটভূমির শব্দে হঠাৎ কাটা, কিছুটা একঘেয়ে স্বর, অথবা কিছু ঘর্ষণীয় শব্দের সমস্যা (যেমন "f" বা "s"), যা মডেলগুলি এখনও কিছুটা কৃত্রিম উপায়ে উচ্চারণ করে।

এই শারীরিক লক্ষণগুলির বাইরে, সর্বদা বিশ্লেষণ করা প্রয়োজন বিষয়বস্তুর উৎপত্তি এবং প্রেক্ষাপটকে এটি প্রথম প্রকাশ করেছে? কোন প্ল্যাটফর্মে? এটি কি নির্ভরযোগ্য মিডিয়া আউটলেটগুলি বা কেবল বেনামী প্রোফাইলগুলি দ্বারা তোলা হচ্ছে? আসল উৎসটি খুঁজুন, নামী মিডিয়ার সাথে এটি যাচাই করুন এবং তথ্য-পরীক্ষা পরিষেবাগুলি ব্যবহার করুন। আসলে-পরীক্ষণ এটি ফাঁদে পা দেওয়ার সম্ভাবনা অনেকাংশে কমিয়ে দেয়।

অবশেষে, আবেদন করা অপরিহার্য সাধারণ জ্ঞান এবং সমালোচনামূলক চিন্তাভাবনাযদি কোনও ভিডিও কোনও নির্দিষ্ট গোষ্ঠী যা বিশ্বাস করতে চায় তার সাথে খুব বেশি মিলে যায়, অথবা যদি বিষয়বস্তু অত্যন্ত কলঙ্কজনক হয় কিন্তু শুধুমাত্র নির্দিষ্ট চ্যানেলের মাধ্যমে প্রচারিত হয়, তাহলে এটি সমস্যাযুক্ত হতে পারে। হোয়াটসঅ্যাপ চেইনসন্দেহ করার, আরও একটু তদন্ত করার, এবং অবশ্যই এটিকে হালকাভাবে ভাগ না করার সময় এসেছে।

ডিপফেক শনাক্ত করার জন্য পেশাদার সরঞ্জাম এবং কৌশল

আমাদের নিজস্ব বিশ্লেষণাত্মক ক্ষমতা ছাড়াও, ইতিমধ্যেই একটি বাস্তুতন্ত্র রয়েছে টেম্পারিং সনাক্তকরণের জন্য বিশেষ সরঞ্জামকিছু, যেমন মাইক্রোসফ্ট ভিডিও অথেনটিকেটার, ডিপওয়্যার স্ক্যানার, বা সেন্সিটি এআই, তাদের নিজস্ব এআই মডেল ব্যবহার করে এমন সূক্ষ্ম প্যাটার্নগুলি সন্ধান করে যা সিন্থেটিক কন্টেন্টকে প্রতারণা করে।

ফরেনসিক ক্ষেত্রেও, এই পদ্ধতি অবলম্বন করা হয় মেটাডেটা বিশ্লেষণ (ফাইল সম্পর্কে প্রযুক্তিগত তথ্য: ক্যাপচার ডিভাইস, তারিখ, ব্যবহৃত সম্পাদনা সফ্টওয়্যার, ইত্যাদি) এবং কম্প্রেশন ত্রুটি স্তর বিশ্লেষণ (ELA), যা চিত্রের বিভিন্ন অবক্ষয় সহ অঞ্চলগুলি দেখাতে পারে, সাধারণত অন্য অঞ্চলগুলিতে পুনর্নির্মাণ বা পেস্ট করা অঞ্চলগুলির ক্ষেত্রে।

অন্যান্য উন্নত পদ্ধতিগুলি ফোকাস করে জ্যামিতিক বা শারীরবৃত্তীয় অনিয়মএই কৌশলগুলির মধ্যে রয়েছে: পিউপিল প্রসারণের ক্ষেত্রে মাইক্রো-ভেরিয়েশন, মুখের বিভিন্ন অংশে দৃশ্যত সনাক্ত হৃদস্পন্দনের ন্যূনতম পার্থক্য, আলোতে ত্রিমাত্রিক অসঙ্গতি ইত্যাদি। এই কৌশলগুলি জটিল কিন্তু নিয়ন্ত্রিত পরিবেশে খুব উচ্চ সাফল্যের হারের অনুমতি দেয়।

অডিওর ক্ষেত্রে, অ্যালগরিদমগুলি এমন পরামিতিগুলির উপর ফোকাস করে যা মানুষের কান থেকে বেরিয়ে আসে: ফ্রিকোয়েন্সি স্পেকট্রা, পিচ এবং ছন্দের মাইক্রো-ভেরিয়েশন, নির্দিষ্ট ধ্বনির উচ্চারণে বা বাক্যাংশের শেষে অসম্ভব প্যাটার্ন। বর্তমানে, অনেক সিন্থেটিক অডিও আলাদা করার ক্ষেত্রে মেশিনগুলি মানুষের চেয়ে ভালোযদি তাদের কাছে মূল রেফারেন্স রেকর্ডিং থাকে।

এই অগ্রগতি সত্ত্বেও, বাস্তবতা হল যে যারা ডিপফেক তৈরি করে এবং যারা সেগুলো সনাক্ত করে তাদের মধ্যে প্রতিযোগিতা চলছে।প্রজন্মের প্রতিটি উন্নতির জন্য যাচাইকরণ কৌশলের উন্নতি প্রয়োজন, যা গবেষণা চালিয়ে যাওয়া অপরিহার্য করে তোলে এবং সর্বোপরি, প্রতিরক্ষার প্রথম সারির একটি সু-জ্ঞাত নাগরিক হিসেবে রয়ে গেছে তা ভুলে যাওয়া উচিত নয়।

ডিপফেকের সামাজিক, নৈতিক এবং আইনি প্রভাব

ডিপফেক কেবল প্রযুক্তিগত চ্যালেঞ্জই তৈরি করে না; তারা সরাসরি নৈতিক, আইনি এবং সামাজিক বিষয়গুলি সমাধান করেএগুলো নিজের ভাবমূর্তি, গোপনীয়তা, সম্মান, তথ্যের স্বাধীনতা এবং এমনকি প্রতিষ্ঠানের উপর আস্থা রাখার অধিকারকে প্রভাবিত করে।

সবচেয়ে বড় ঝুঁকিগুলির মধ্যে একটি হল যে আইনি বা মিডিয়া কার্যক্রমে "প্রমাণ" হিসেবে ব্যবহৃত হয়যদি কোনও ভিডিওর সত্যতা প্রমাণ করা ক্রমশ কঠিন হয়ে উঠছে, তাহলে দৃঢ় অভিযোগ করা এবং বানোয়াট অভিযোগের বিরুদ্ধে আত্মপক্ষ সমর্থন করা উভয়ই আরও জটিল হয়ে উঠছে। আক্রমণকারীরা যদি অত্যাধুনিক ডিপফেক ব্যবহার করে তাদের প্রতারিত করতে সক্ষম হয় তবে মুখ এবং কণ্ঠস্বর শনাক্তকরণ সিস্টেমও ঝুঁকির মুখে পড়তে পারে।

নীতিগত দৃষ্টিকোণ থেকে, বিতর্কটি শুরু হয় মানুষের (জীবিত বা মৃত) সম্মতি ছাড়া তাদের পুনরুত্পাদন করা কতটা বৈধ?এমনকি আপাতদৃষ্টিতে মহৎ বা শৈল্পিক উদ্দেশ্যেও। "ডিজিটাল উত্তরাধিকার" ধারণা এবং মৃত্যুর পরে কারও ছবি বা কণ্ঠস্বর ব্যবহারের অনুমোদন কে দিতে পারে, তা বিভিন্ন আইনি ব্যবস্থায় রূপ নিতে শুরু করেছে।

নিয়ন্ত্রক ফ্রন্টে, বিভিন্ন দেশ পদক্ষেপ নিচ্ছে। ভার্জিনিয়া, ক্যালিফোর্নিয়া এবং টেক্সাসের মতো মার্কিন রাজ্যগুলি নির্দিষ্ট আইন পাস করেছে সম্মতিহীন পর্নোগ্রাফিক ডিপফেকগুলির বিরুদ্ধে মামলা করা এবং নির্বাচনের সময় তাদের ব্যবহার নিষিদ্ধ করা। চীন এই ধরণের সামগ্রীর উপর অত্যন্ত কঠোর বিধিনিষেধ আরোপ করেছে এবং ইউরোপীয় ইউনিয়ন তার প্রথম প্রধান কৃত্রিম বুদ্ধিমত্তা আইন চালু করছে, যা সিস্টেমগুলিকে তাদের ঝুঁকির স্তর অনুসারে শ্রেণীবদ্ধ করে এবং সিন্থেটিক সামগ্রীর ব্যবহারে স্বচ্ছতা প্রয়োজন।

এমনকি, নিয়ন্ত্রণ সবসময় প্রযুক্তির চেয়ে পিছিয়ে থাকেমৌলিক অধিকার (গোপনীয়তা, সম্মান, বৈষম্যহীনতা) রক্ষা করা এবং উদ্ভাবনকে দমিয়ে না রাখার মধ্যে ভারসাম্য খুঁজে বের করাই চ্যালেঞ্জ। তদুপরি, দায়িত্ব অর্পণ করা সহজ নয়: যিনি টুলটি ডিজাইন করেন, যিনি ভিডিও তৈরি করেন, যিনি আপলোড করেন, নাকি যিনি এটি ভাইরাল করেন তিনি কি দায়ী?

এই সমস্ত কারণে, আন্তর্জাতিক সংস্থা, নিরাপত্তা বাহিনী এবং ইউরোপোল বা জাতিসংঘের মতো সংস্থাগুলি একটি "প্রযুক্তিগত সাক্ষরতা"নাগরিকদের - বিশেষ করে তরুণদের - এই প্রযুক্তির অপব্যবহারের ঝুঁকি, ক্ষতিকারক বিষয়বস্তু ছড়িয়ে দেওয়ার আইনি প্রভাব এবং কোনও কিছু ফরোয়ার্ড বা পোস্ট করার আগে বিচারবুদ্ধির সাথে কাজ করার গুরুত্ব সম্পর্কে শিক্ষিত করা।

ডিপফেক থেকে নিজেকে রক্ষা করার জন্য আপনি কী করতে পারেন?

এত জটিল সমস্যার মুখোমুখি হয়ে, এটা ভাবা সহজ যে ব্যক্তিগত পর্যায়ে খুব কমই করা সম্ভব, কিন্তু বাস্তবে তা নয়। যে কেউ তাদের এক্সপোজার এবং দুর্বলতা কমাতে বেশ কিছু ব্যবহারিক পদক্ষেপ নিতে পারে।.

প্রথমটি হচ্ছে আপনার ডিজিটাল পদচিহ্ন রক্ষা করুনসোশ্যাল মিডিয়ায়, বিশেষ করে পাবলিক প্রোফাইলে, আপনার ব্যক্তিগত ছবি, ভিডিও এবং অডিও প্রকাশ্যে পোস্ট করার পরিমাণ সীমিত করুন। আক্রমণকারীর কাছে যত বেশি উপাদান থাকবে, তার পক্ষে একজন বিশ্বাসযোগ্য মডেলকে প্রশিক্ষণ দেওয়া তত সহজ হবে। আপনার গোপনীয়তা সেটিংস পর্যালোচনা করা এবং আপত্তিকর সামগ্রী আপলোড করার আগে দুবার চিন্তা করা একটি ভালো শুরু।

দ্বিতীয়টি হল একটি গ্রহণ করা যেকোনো আকর্ষণীয় বিষয়বস্তুর প্রতি সমালোচনামূলক মনোভাবসর্বদা উৎস যাচাই করুন, একাধিক মিডিয়া আউটলেটের সাথে যোগাযোগ করুন, তথ্য যাচাইকারী প্ল্যাটফর্মের সাথে পরামর্শ করুন এবং যদি কিছু সন্দেহজনক মনে হয়, তাহলে তা শেয়ার করবেন না। সম্ভাব্য ডিপফেকের বিস্তারে অবদান রাখা এড়িয়ে চলা তাদের নাগাল সীমিত করার একটি গুরুত্বপূর্ণ পদক্ষেপ।

পেশাদার এবং ব্যবসায়িক ক্ষেত্রে, এটি গুরুত্বপূর্ণ পরিচয় যাচাইকরণ প্রোটোকল শক্তিশালী করুনশুধুমাত্র ফোন কল বা ভিডিওর উপর ভিত্তি করে সংবেদনশীল আদেশ (পেমেন্ট, পাসওয়ার্ড পরিবর্তন, গুরুত্বপূর্ণ নথি পাঠানো) মেনে চলবেন না। "ডুয়াল-চ্যানেল" সিস্টেম বাস্তবায়ন (যেমন, ভিন্ন পদ্ধতির মাধ্যমে নিশ্চিতকরণ) এবং শক্তিশালী প্রমাণীকরণ ব্যবহার আক্রমণকারীদের কৌশলের সুযোগ উল্লেখযোগ্যভাবে হ্রাস করে।

অবশেষে, এটা কখনোই কষ্টের নয়... মৌলিক সাইবার নিরাপত্তা, বিভ্রান্তি এবং সমালোচনামূলক চিন্তাভাবনার প্রশিক্ষণ দিনসাইবার অপরাধীরা কীভাবে কাজ করে, কীভাবে প্রতারণা তৈরি করা হয় এবং তাদের সনাক্ত করার জন্য আমাদের কাছে কী কী সরঞ্জাম রয়েছে তা বোঝা আমাদের মোবাইল ফোনে আসা যেকোনো ডিপফেকের বিরুদ্ধে আমাদের অনেক বেশি নিরাপদ অবস্থানে রাখে।

কৃত্রিম বুদ্ধিমত্তার অগ্রগতি ডিপফেকের মান আরও উন্নত করার প্রতিশ্রুতি দেয়, তবে এটি আরও ভাল সনাক্তকরণ ব্যবস্থা এবং স্পষ্ট আইনি কাঠামোও তৈরি করছে; এই পরিবর্তিত পরিস্থিতিতে, মাথা ঠান্ডা রাখা, খুব নিখুঁত যেকোনো কিছু সম্পর্কে সতর্ক থাকা এবং সর্বদা তথ্য যাচাই করা হল একটি ডিজিটাল পরিবেশে নেভিগেট করার জন্য সেরা কৌশল যেখানে, ক্রমবর্ধমানভাবে, যা বাস্তব বলে মনে হয় তার সবকিছুই বাস্তব নয়, তবে আমরা তাদের মধ্যে পার্থক্য করতে শিখতে পারি।.