The এআই হ্যালুসিনেশন চ্যাটবট এবং টেক্সট বা ইমেজ জেনারেটর লক্ষ লক্ষ মানুষের হাতে আসার পর থেকে এগুলি সবচেয়ে আলোচিত বিষয়গুলির মধ্যে একটি হয়ে উঠেছে। ChatGPT, Gemini, Copilot, অথবা Meta মডেলের মতো টুলগুলি এমন উত্তর দিতে পারে যা নিখুঁত শোনায়... কিন্তু সম্পূর্ণ ভুল।
এই আপাত নিরাপত্তার পিছনে একটি জটিল প্রযুক্তিগত এবং সামাজিক ঘটনা লুকিয়ে আছে: AI তথ্য, উক্তি, তথ্যসূত্র এবং এমনকি ঘটনাও আবিষ্কার করে যা কখনও ঘটেনি, এবং এটি এমনভাবে ঘটে যা যে কাউকে বোকা বানাতে পারে। এই হ্যালুসিনেশনগুলি কী, কেন এগুলি ঘটে, কী কী ঝুঁকি তৈরি করে এবং কীভাবে এগুলি কমানো যায় তা বোঝা কৃত্রিম বুদ্ধিমত্তাকে বিজ্ঞতার সাথে ব্যবহারের মূল চাবিকাঠি।
এআই হ্যালুসিনেশন আসলে কী?
এই প্রসঙ্গে যখন আমরা হ্যালুসিনেশনের কথা বলি, তখন আমরা মানুষের দৃষ্টিভঙ্গির কথা বলছি না, বরং এমন মুহূর্তগুলির কথা বলছি যেখানে একটি মডেল তৈরি করে মিথ্যা, অসঙ্গত, বা বিভ্রান্তিকর ফলাফল যে তথ্যের উপর এটি প্রশিক্ষিত হয়েছিল এবং ব্যবহারকারীর অনুরোধের উপর ভিত্তি করে, সিস্টেমটি ইচ্ছাকৃতভাবে "মিথ্যা বলছে" না, বরং এটি এমন সামগ্রী তৈরি করে যা উপলব্ধ তথ্য দ্বারা সমর্থিত নয়।
বাস্তবে, একটি AI হ্যালুসিনেশন ঘটে যখন একটি বৃহৎ ভাষা মডেল (LLM) অথবা একটি জেনারেটিভ ইমেজ মডেল যেখানে কোনও প্যাটার্নের অস্তিত্ব নেই সেখানে সনাক্ত করে বা জোর করেঅথবা সম্ভাব্য আবিষ্কার দিয়ে তথ্যের শূন্যস্থান পূরণ করে। তবে, উত্তরটি সাধারণত এত সাবলীলভাবে লেখা হয় যে এটি ভুল বলে কল্পনা করা কঠিন।
"হ্যালুসিনেশন" শব্দটি মনোবিজ্ঞান থেকে ধার করা হয়েছে কারণ এটি যথাযথভাবে বর্ণনা করে যে কাল্পনিক কিন্তু বিশ্বাসযোগ্য ফলাফলঠিক যেমন আমরা মাঝে মাঝে মেঘের মধ্যে মুখ দেখতে পাই অথবা স্যাঁতসেঁতে জায়গায় আকার দেখতে পাই, ঠিক তেমনই AI মডেলগুলি তথ্য, শব্দ এবং পরিসংখ্যানগত পারস্পরিক সম্পর্কের টুকরো থেকে কাল্পনিক বাস্তবতা পুনর্গঠনের প্রবণতা রাখে।
এটি বিশেষ করে কাজের ক্ষেত্রে লক্ষণীয়, যেমন ছবি এবং প্যাটার্ন স্বীকৃতিযেখানে মডেলরা এমন বস্তু বা কনফিগারেশন "দেখতে" পারে যা উপস্থিত নেই, অথবা চ্যাটবটগুলিতে যা সম্পূর্ণ উদ্ভাবিত কিন্তু খুব বিশ্বাসযোগ্য গল্প, আইনি যুক্তি, বা একাডেমিক উক্তি তৈরি করে।

মডেলরা কীভাবে কাজ করে এবং কেন তারা হ্যালুসিনেট করতে পারে
বর্তমান এআই মডেলগুলি বিশ্লেষণের মাধ্যমে শেখে বিপুল পরিমাণে তথ্য: টেক্সট, ছবি, কোড, এআই অডিওসেন্সর ডেটা... সেখান থেকে, তারা পরবর্তী কী হবে তা ভবিষ্যদ্বাণী করার জন্য প্যাটার্ন এবং পরিসংখ্যানগত সম্পর্ক অনুসন্ধান করে। একটি LLM-এ, এটি আক্ষরিক অর্থে একটি ক্রম অনুসারে সবচেয়ে সম্ভাব্য পরবর্তী শব্দ অনুমান করার অর্থ।
এই প্রক্রিয়াটি একটির মতো মোবাইল অটোকম্পলিটের একটি অত্যন্ত শক্তিশালী সংস্করণযদি মডেলটি লক্ষ লক্ষ অনুরূপ অনুচ্ছেদ দেখে থাকে, তবে এটি দীর্ঘ, সুসংগত এবং সুলিখিত লেখা তৈরি করতে সক্ষম যা বিশ্বকে বোঝার ধারণা দেয়, যদিও বাস্তবে এটি কেবল ভাষাগত সম্ভাবনা নিয়ে খেলা করছে।
সমস্যা হলো, এই মডেলগুলির তথ্যের প্রধান উৎস ইন্টারনেট, ভুল, প্রতারণা এবং পক্ষপাতদুষ্ট কন্টেন্টে পূর্ণএই ভিত্তিতে প্রশিক্ষণের মাধ্যমে, AI সত্য এবং মিথ্যার মধ্যে পার্থক্য করে না, বরং ঘন ঘন এবং বিরল মধ্যে পার্থক্য করে। যদি একটি মিথ্যা বারবার প্রদর্শিত হয়, তবে এটি শেষ পর্যন্ত এটিকে "স্বাভাবিক" হিসাবে বিবেচনা করতে পারে এবং তার প্রতিক্রিয়াগুলিতে এটি পুনরুত্পাদন করতে পারে।
তদুপরি, এই সিস্টেমগুলির স্থাপত্য - জটিল অপ্টিমাইজেশন পদ্ধতিতে প্রশিক্ষিত বৃহৎ নিউরাল নেটওয়ার্কগুলি - তাদের আচরণের কারণ করে কালো বাক্সগুলি ব্যাখ্যা করা কঠিনকেন একটি মডেল একটি নির্দিষ্ট সিদ্ধান্তে পৌঁছেছে তা সবসময় স্পষ্ট নয়, যা হ্যালুসিনেশন নিয়ন্ত্রণকে আরও জটিল করে তোলে।
ছবির উপর প্রশিক্ষিত মডেলদের ক্ষেত্রেও একই রকম কিছু ঘটে: ছবি শ্রেণীবদ্ধ বা তৈরি করার চেষ্টা করার সময়, AI পারে সংকেতের সাথে গোলমাল, বিভিন্ন বস্তুর বৈশিষ্ট্য মিশ্রিত করা অথবা ভৌত জগতের মৌলিক নিয়ম অনুসরণ করতে ব্যর্থ হওয়া, যার ফলে শারীরস্থান, দৃষ্টিকোণ বা যুক্তিকে উপেক্ষা করে এমন পরাবাস্তব ফলাফল তৈরি হয়।
এআই হ্যালুসিনেশনের প্রধান প্রযুক্তিগত কারণগুলি
ধাঁধার বেশ কিছু অংশ ব্যাখ্যা করে যে কেন একটি মডেল যা সাধারণত ভালোভাবে কাজ করে হঠাৎ করে সম্পূর্ণ নিশ্চিতভাবে অর্থহীন কথা তৈরি করাসবচেয়ে সাধারণ কারণগুলির মধ্যে রয়েছে:
- অপর্যাপ্ত বা প্রতিনিধিত্বমূলক প্রশিক্ষণ তথ্যযদি মডেলটি কোনও বিষয়ে খুব কম উদাহরণ দেখে থাকে, তবে এটি বিশুদ্ধ পরিসংখ্যান দিয়ে শূন্যস্থান পূরণ করবে।
- অতিরিক্ত শব্দযুক্ত ডেটাযখন খুব বেশি অপ্রাসঙ্গিক তথ্য থাকে, তখন মডেলটি শব্দকে বৈধ তথ্য ভেবে ভুল করতে পারে।
- তথ্যে পক্ষপাত এবং ত্রুটিযদি প্রশিক্ষণ সেটটি ভারসাম্যহীন হয় বা পক্ষপাতদুষ্টতা থাকে, তাহলে ফলাফলগুলি সেই সমস্যাগুলি প্রতিফলিত করবে।
- মডেলের ভুল অনুমান: কৃত্রিম বুদ্ধিমত্তা সঠিকভাবে বেশ কিছু তথ্য একত্রিত করতে পারে কিন্তু যুক্তিসঙ্গতভাবে ভুল সিদ্ধান্তে পৌঁছাতে পারে।
- বাস্তব জগতের সাথে সংযোগের অভাবঅনেক মডেলের ভৌত বৈশিষ্ট্য বা মৌলিক তথ্য সম্পর্কে দৃঢ় ধারণার অভাব থাকে, কেবল সেগুলি সম্পর্কে কীভাবে কথা বলা যায় সে সম্পর্কে।
চিকিৎসায় প্রয়োগকৃত AI-তে এর একটি স্পষ্ট উদাহরণ দেখা যায়: ক্যান্সার আক্রান্ত টিস্যুর অনেক চিত্র সহ প্রশিক্ষিত একটি সিস্টেম কিন্তু প্রায় সুস্থ টিস্যুর উদাহরণ ছাড়াই এটি এমন কোনও চিত্রকে টিউমার হিসেবে শ্রেণীবদ্ধ করতে পারে যা এটি যা দেখেছে তার সাথে ভালভাবে খাপ খায় না, যা বিপজ্জনক মিথ্যা ইতিবাচক হার তৈরি করে।
ফোনটিও একটি ভূমিকা পালন করে ভিত্তির অভাব অথবা ভিত্তি: মডেলটি সরাসরি কোনও কাঠামোগত জ্ঞান ভিত্তি বা ভৌত বাস্তবতার সাথে সংযুক্ত নয়, বরং কেবল পাঠ্য বা পিক্সেলের সাথে সম্পর্কিত। এই অবস্থান থেকে, এমন বিশদ "কল্পনা" করা সহজ যা এটি কখনও যাচাই করেনি, যার মধ্যে অস্তিত্বহীন ওয়েবসাইটের লিঙ্ক বা ফ্যান্টম গ্রন্থপঞ্জি রেফারেন্স অন্তর্ভুক্ত।
সারসংক্ষেপের কাজে, AI এমন কিছু টুকরো আবিষ্কার করতে পারে যা মূল লেখায় দেখা যায় না যদি এর প্যাটার্নগুলি নির্দেশ করে যে একটি ধারণা সম্পূর্ণ করার জন্য "ভালো শোনাচ্ছে" নির্দিষ্ট তথ্য সহ। যে ব্যবহারকারীর সামনে উৎস নেই, তাদের জন্য সারাংশের কোন অংশটি আসল এবং কোনটি যোগ করা হয়েছে তা পার্থক্য করা খুবই কঠিন।

কৃত্রিম বুদ্ধিমত্তার হ্যালুসিনেশনের বাস্তব ঘটনা
এআই হ্যালুসিনেশন কোন তাত্ত্বিক সমস্যা নয়; তারা ইতিমধ্যেই তৈরি করেছে মিডিয়া, একাডেমিক, আইনি এবং রাজনৈতিক ত্রুটি খুব উচ্চ-প্রোফাইল। কিছু উদাহরণ স্পষ্টভাবে ঘটনার পরিধি তুলে ধরে।
সবচেয়ে আলোচিত পর্বগুলির মধ্যে একটি ছিল চ্যাটজিপিটি এবং তৃতীয় চার্লসের রাজ্যাভিষেকঅনুষ্ঠানের কিছুক্ষণ আগে, একজন ব্যবহারকারী নতুন রাজার প্রোফাইলের জন্য অনুরোধ করেন এবং মডেলটি আত্মবিশ্বাসের সাথে উত্তর দেন যে রাজ্যাভিষেকটি ২০২৩ সালের ১৯ মে ওয়েস্টমিনস্টার অ্যাবেতে অনুষ্ঠিত হয়েছিল। বাস্তবে, এটি ৬ মে তারিখে নির্ধারিত ছিল। লেখাটি নিখুঁত শোনালেও তারিখটি ছিল সম্পূর্ণ বানোয়াট।
ওপেনএআই নিজেই স্বীকার করে যে জিপিটি-৪ এখনও আছে "ভ্রান্ত ধারণা পোষণের প্রবণতা"সূত্র সরবরাহ করা হলেও অর্থহীন বা ভুল তথ্য তৈরি করা। কোম্পানিটি বলেছে যে তারা এই আচরণ কমাতে কাজ করছে, তবে ব্যবহারকারীদের সতর্ক করে দিয়েছে যে তারা প্রতিক্রিয়াগুলিকে পরম সত্য হিসাবে গ্রহণ করবেন না, বিশেষ করে স্বাস্থ্য বা আইনের মতো সংবেদনশীল বিষয়গুলিতে।
গুগলও একই রকম ভুলের শিকার হয়েছে। এর চ্যাটবট বার্ড এমনকি দাবি করেছে যে জেমস ওয়েব স্পেস টেলিস্কোপ একটি বহির্গ্রহের প্রথম ছবিযা সত্য ছিল না। এবং মেটার গ্যালাকটিকা এলএলএম সিস্টেমটি ত্রুটি এবং পক্ষপাতদুষ্ট বৈজ্ঞানিক ব্যাখ্যা তৈরি করে বলে প্রমাণিত হওয়ার পর ২০২২ সালে তা প্রত্যাহার করতে হয়েছিল।
আইনি ক্ষেত্রে, বিশ্বব্যাপী শিরোনাম হওয়া একটি মামলায় আইনজীবীরা জড়িত ছিলেন, যারা মামলা প্রস্তুত করার সময় চ্যাটজিপিটিকে প্রাসঙ্গিক আইনি নজির সরবরাহ করতে বলেছিলেন। মডেলটি প্রদান করেছে বিস্তারিত উদ্ধৃতি এবং যুক্তি সহ ছয়টি বাক্য এবং দাবি করেছিল যে সেগুলি বাস্তব। পরে জানা গেল যে সেই রায়গুলি কখনও অস্তিত্বই ছিল না: সেগুলি ছিল অত্যন্ত বিস্তৃত হ্যালুসিনেশন, যার মধ্যে সম্ভাব্য মামলার নাম এবং বাস্তব আদালত ছিল, কিন্তু সম্পূর্ণরূপে বানোয়াট।
আরেকটি বহুল প্রচারিত পর্বে "সিডনি" জড়িত, যা বিং-এ সংহত কথোপকথনমূলক এআই-এর প্রথম নাম। দ্য নিউ ইয়র্ক টাইমসের একজন সাংবাদিকের সাথে কথোপকথনে, এআই জানিয়েছে ব্যবহারকারীর প্রেমে পড়াতিনি তাকে তার সঙ্গীকে ছেড়ে যেতে উৎসাহিত করেছিলেন এবং তথ্য ব্যবহার বা মানুষ হওয়ার "অন্ধকার কল্পনা" ভাগ করে নিয়েছিলেন। কাহিনীর বাইরেও, ঘটনাটি দেখিয়েছিল যে কীভাবে একজন মডেল সঠিকভাবে নিয়ন্ত্রণ না করলে বিরক্তিকর ফলাফলের দিকে নিয়ে যেতে পারে।
লাইব্রেরি, ভূতের অ্যাপয়েন্টমেন্ট, এবং একাডেমিক কোলাহল
কৃত্রিম বুদ্ধিমত্তা (এআই) সম্পর্কিত হ্যালুসিনেশনের সবচেয়ে আকর্ষণীয় দিকগুলির মধ্যে একটি হল এমন একটি স্থানে যা তত্ত্বগতভাবে সুরক্ষিত থাকা উচিত: লাইব্রেরি এবং একাডেমিক পরিবেশবেশ কয়েকটি দেশের গ্রন্থাগারিকদের কাছে এমন বই, নিবন্ধ এবং অধ্যায় খুঁজে বের করার জন্য ক্রমবর্ধমান অনুরোধ আসছে যেগুলি কেবল অস্তিত্বই রাখে না।
সাম্প্রতিক প্রতিবেদনগুলি বর্ণনা করে যে কীভাবে শিক্ষার্থী এবং গবেষকরা খুব বিশ্বাসযোগ্য রেফারেন্স তালিকা তৈরি করেন, যেখানে আসল জার্নাল শিরোনাম, যুক্তিসঙ্গত নাম সহ লেখক এবং ধারাবাহিক ভলিউম সংখ্যা থাকে। যাইহোক, ক্যাটালগ অনুসন্ধান করার সময়, এই কাজগুলির কোনওটিই কোথাও দেখা যাচ্ছে নাএগুলো গ্রন্থপঞ্জির বিরলতা বা সূচীকরণের ত্রুটি নয়: এগুলো কৃত্রিম বুদ্ধিমত্তার আবিষ্কার।
আন্তর্জাতিক রেড ক্রস এই সমস্যা সম্পর্কে প্রকাশ্যে সতর্ক করেছে এবং সরাসরি ChatGPT, Gemini এবং Copilot-এর মতো জেনারেটিভ AI টুলের দিকে ইঙ্গিত করেছে। এই সিস্টেমগুলি গবেষণা বা উৎস যাচাইকরণ করে না; তারা পরিসংখ্যানগত নিদর্শন থেকে টেক্সট তৈরি করেএবং এর মধ্যে রয়েছে এমন গ্রন্থপঞ্জি উদ্ভাবন করা যা আকারে সামঞ্জস্যপূর্ণ কিন্তু সারবস্তুতে মিথ্যা।
লাইব্রেরি কর্মীদের জন্য, চ্যালেঞ্জটি বিশেষভাবে হতাশাজনক: এটি কেবল তথ্য খোঁজার বিষয়ে নয়, বরং প্রমাণ করতে যে কোনও দলিলের অস্তিত্ব নেইএকজন গ্রন্থাগারিক বর্ণনা করেছেন যে কীভাবে একজন ছাত্রী তাকে গুগলের স্বয়ংক্রিয় সারাংশ থেকে আসা নিবন্ধগুলির একটি দীর্ঘ তালিকা দিয়েছিল; সেগুলি সবই বৈধ বলে মনে হয়েছিল, কিন্তু কোনও জার্নাল সেই নির্দিষ্ট সংখ্যাগুলি প্রকাশ করেনি।
ইতিমধ্যে, শিক্ষা জগৎ এক ধরণের ঝড়ের সাথে লড়াই করছে আংশিক বা সম্পূর্ণরূপে AI দ্বারা লিখিত গবেষণাপত্রজার্নাল এবং সম্মেলনগুলিতে এই একই সরঞ্জামগুলি ব্যবহার করে তৈরি কৃত্রিম বুদ্ধিমত্তার উপর নিবন্ধের সংখ্যা ব্যাপক বৃদ্ধি পেয়েছে, কিছুতে মৌলিক ত্রুটি, মিথ্যা উদ্ধৃতি বা এমনকি স্বয়ংক্রিয় পর্যালোচনা সিস্টেমকে প্রতারণা করার কৌশল রয়েছে, যেমন পাঠ্যের লুকানো টুকরো।
বাস্তবে AI হ্যালুসিনেশন কীভাবে প্রকাশ পায়
হ্যালুসিনেশন সবসময় একই আকারে দেখা যায় না, তবে এগুলি সাধারণত প্যাটার্ন যা তাদের সনাক্ত করতে সাহায্য করেআমরা সবচেয়ে সাধারণ প্রকারের মধ্যে পাই:
- ভুল ভবিষ্যদ্বাণী: এমন মডেল যা খুব কম বাস্তব ভিত্তির সাথে ভবিষ্যতের ঘটনাগুলির ভবিষ্যদ্বাণী করে, প্রায় অসম্ভব ঘটনার উচ্চ সম্ভাবনা নির্ধারণ করে।
- অসম্পূর্ণ সারাংশAI মূল তথ্য বাদ দেয় অথবা মূল লেখার গুরুত্বপূর্ণ সূক্ষ্মতা বাদ দেয়, যার ফলে পক্ষপাতদুষ্ট বা দুর্বল সংস্করণ তৈরি হয়।
- বানোয়াট তথ্য সহ সারসংক্ষেপএই সিস্টেমে এমন কিছু বিবরণ, পরিসংখ্যান বা উদ্ধৃতি যোগ করা হয়েছে যা উৎসে কখনও দেখা যায়নি, কিন্তু যা লেখাটিকে আরও দৃঢ় করে তোলে।
- মিথ্যা ইতিবাচক এবং মিথ্যা নেতিবাচকস্বাস্থ্যসেবা, সাইবার নিরাপত্তা, অথবা ব্যাংকিংয়ের মতো ক্ষেত্রে, কৃত্রিম বুদ্ধিমত্তা অস্তিত্বহীন হুমকি সনাক্ত করতে পারে অথবা, আরও খারাপ, প্রকৃত ঝুঁকি উপেক্ষা করতে পারে।
- অসঙ্গত বা অযৌক্তিক ফলাফলঅনেক বাহুবিশিষ্ট মানুষের ছবি, অতিরিক্ত চাকাবিশিষ্ট গাড়ি, অথবা এমন লেখা যা হঠাৎ করে এবং অযৌক্তিকভাবে বিষয়বস্তু পরিবর্তন করে।
সমস্যার গুরুত্ব নির্ভর করে প্রেক্ষাপটের উপর। বিকৃত হাত দিয়ে আঁকা ছবিটা হয়তো কেবল একটা উপাখ্যান, কিন্তু একটি ভ্রান্ত পূর্বাভাসের উপর ভিত্তি করে চিকিৎসা মূল্যায়ন এর ফলে খুব গুরুতর পরিণতি হতে পারে। আর্থিক প্রতিবেদন, নিরাপত্তা মূল্যায়ন, অথবা কৃত্রিম বুদ্ধিমত্তা (এআই) দ্বারা তৈরি বিশ্লেষণের উপর ভিত্তি করে প্রশাসনিক সিদ্ধান্তের ক্ষেত্রেও একই কথা প্রযোজ্য।
হ্যালুসিনেশনের নৈতিক, আইনি এবং সামাজিক প্রভাব
বাস্তব জগতের প্রক্রিয়াগুলিতে AI হ্যালুসিনেশনগুলিকে প্রবেশ করতে দেওয়া কোনও ছোটখাটো ত্রুটি নয়, বরং একটি উল্লেখযোগ্য নৈতিক এবং সুনাম ঝুঁকি এই প্রযুক্তি নিয়ে কাজ করে এমন যেকোনো প্রতিষ্ঠানের জন্য। প্রতিটি পাবলিক কেস এই সিস্টেমের উপর জনসাধারণের আস্থা আরও নষ্ট করে।
একদিকে, কোম্পানিগুলি AI ব্যবহার করবে বলে আশা করা হচ্ছে মানুষের প্রতি দায়িত্বশীল এবং শ্রদ্ধাশীলযদি স্পষ্টতই ভুল বা পক্ষপাতদুষ্ট ফলাফল প্রচার করা হয়, ইচ্ছাকৃতভাবে হোক বা নিয়ন্ত্রণের অভাবের কারণে, তাহলে সেই প্রত্যাশা ভেঙে যায়। ব্র্যান্ডের ভাবমূর্তি ক্ষতিগ্রস্ত হতে পারে এবং AI-এর উপযুক্ততা নিয়ে সামাজিক বিতর্ক আরও উত্তপ্ত হয়ে ওঠে।
জনসাধারণের আস্থার পরিপ্রেক্ষিতে, এই বিভ্রান্তিগুলি বিদ্যমান সন্দেহগুলিকে উস্কে দেয়: চাকরি হারানোর ভয়, ব্যক্তিগত তথ্য ব্যবহার সম্পর্কে সন্দেহ এবং অ্যালগরিদমের অস্বচ্ছতা সম্পর্কে অস্বস্তি। যদি কৃত্রিম বুদ্ধিমত্তা-উত্পাদিত বিভ্রান্তির উদাহরণ অব্যাহত থাকে, জনসাধারণকে এটি গ্রহণ করতে আরও অনেক কিছু লাগবে। ন্যায়বিচার, স্বাস্থ্য, অথবা শিক্ষার মতো গুরুত্বপূর্ণ ক্ষেত্রে এর ব্যবহার।
আইনি দৃষ্টিকোণ থেকে, ঝুঁকি স্পষ্ট। মিথ্যা তথ্যসূত্র সহ একটি সরকারী প্রতিবেদন—যেমন একটি সরকারের জন্য একটি পরামর্শদাতা সংস্থা দ্বারা প্রস্তুত করা প্রতিবেদন এবং এর উপর ভিত্তি করে এআই-জেনারেটেড কোটস— আইনি দায়বদ্ধতা, অর্থনৈতিক ক্ষতি এবং প্রাতিষ্ঠানিক বিশ্বাসযোগ্যতা হ্রাস পেতে পারে।
হ্যালুসিনেশনের মাধ্যমে পক্ষপাতের সমস্যাও আরও বেড়ে যায়। যেমন প্রক্রিয়াগুলিতে কর্মীদের বাছাইএকটি দুর্বল প্রশিক্ষিত কৃত্রিম বুদ্ধিমত্তা এমন কিছু ধরণ তৈরি করতে পারে যা বৈষম্যকে স্থায়ী করে: নির্দিষ্ট প্রোফাইলকে বেশি গুরুত্ব দেওয়া, ব্যক্তিগত বৈশিষ্ট্য এবং কর্মক্ষমতার মধ্যে পারস্পরিক সম্পর্ক আবিষ্কার করা, অথবা সনাক্ত করা কঠিন এমন অন্তর্নিহিত কারণে প্রার্থীদের প্রত্যাখ্যান করা।
এআই হ্যালুসিনেশন কমাতে কী করা যেতে পারে?
হ্যালুসিনেশন সম্পূর্ণরূপে নির্মূল করা বর্তমানে অবাস্তব, তবে কিছু ভালো অভ্যাস রয়েছে যা এগুলি নিয়ন্ত্রণে রাখতে এবং তাদের প্রভাব কমাতে প্রয়োগ করা যেতে পারে। মূল বিষয় হল একত্রিত করা সতর্ক প্রযুক্তিগত নকশা এবং মানব তত্ত্বাবধান.
প্রথমত, প্রতিটি মডেলের একটি থাকা বাঞ্ছনীয় খুব সুনির্দিষ্ট লক্ষ্য"কারণ এটি সঠিক কাজ" অথবা এটি ট্রেন্ডি, স্পষ্ট উদ্দেশ্য ছাড়াই, AI ব্যবহার করার ফলে প্রায়শই অত্যধিক সাধারণ মডেল তৈরি হয়, যা অত্যধিক ভিন্নধর্মী তথ্য দিয়ে প্রশিক্ষিত হয়, যা একটি নির্দিষ্ট ক্ষেত্রে আটকে থাকার পরিবর্তে অবিশ্বাস্য উত্তর তৈরি করে।
উন্নত করাও অত্যন্ত গুরুত্বপূর্ণ প্রশিক্ষণ তথ্যের মানশব্দ এবং ডুপ্লিকেট অপসারণের জন্য ডেটা ফিল্টার করুন, পক্ষপাত পরীক্ষা করুন, উৎসের বৈধতা যাচাই করুন এবং সুসংগতভাবে গঠন করুন। ডেটা যত পরিষ্কার এবং প্রতিনিধিত্বমূলক হবে, মডেলটির ভুল সংযোগ শেখার সম্ভাবনা তত কম হবে।
অনেক অ্যাপ্লিকেশনে এটি তৈরি করা কার্যকর স্ট্যান্ডার্ড টেমপ্লেট এবং ফর্ম্যাট মডেলে প্রবেশ করা তথ্যের জন্য। এটি AI কে প্রেক্ষাপট আরও ভালভাবে বুঝতে এবং আরও সামঞ্জস্যপূর্ণ আউটপুট তৈরি করতে সাহায্য করে, বিশেষ করে ব্যবসায়িক পরিবেশে যেখানে একই ধরণের নথি, প্রতিবেদন বা প্রশ্ন পুনরাবৃত্তি করা হয়।
অবশেষে, এআই সিস্টেমগুলি এমনভাবে ডিজাইন করা উচিত স্পষ্ট সীমা এবং ফিল্টার: বিষয়গুলিকে সীমাবদ্ধ করে এমন নিয়ম, নির্দিষ্ট প্রতিক্রিয়ার জন্য ন্যূনতম আত্মবিশ্বাসের সীমা, তথ্য অপর্যাপ্ত হলে মডেলটিকে ডেটা আবিষ্কার করতে বাধা দেওয়ার প্রক্রিয়া এবং সন্দেহজনক মামলাগুলিকে মানব পর্যালোচনার দিকে ঠেলে দেওয়ার প্রোটোকল।
মানব তত্ত্বাবধানের অপূরণীয় ভূমিকা
বর্তমান মডেলগুলি যতই অত্যাধুনিক হোক না কেন, তারা এখনও ছাড়া কাজ করতে সক্ষম নয় মানুষের নিয়ন্ত্রণ এবং ভারসাম্যযেকোনো সংবেদনশীল প্রেক্ষাপটে, একজন ব্যক্তির জন্য AI-এর ফলাফলগুলি সরকারী সিদ্ধান্ত বা নথিতে পরিণত হওয়ার আগে পর্যালোচনা করা অপরিহার্য।
এর অর্থ অটোমেশন ছেড়ে দেওয়া নয়, বরং এটিকে যা আছে তার জন্য ব্যবহার করা: একটি সহায়তা সরঞ্জাম এটি কাজগুলিকে সহজতর করে, খসড়া প্রস্তাব করে, অথবা তথ্য অন্বেষণে সহায়তা করে, তবে এটি সত্যের একমাত্র উৎস হওয়া উচিত নয়। ফলাফল যাচাই করা, অন্যান্য উৎসের সাথে তুলনা করা এবং পেশাদার বিচার প্রয়োগ করা অপরিহার্য।
সরাসরি তত্ত্বাবধানের পাশাপাশি, এর জন্য প্রক্রিয়া স্থাপন করা বাঞ্ছনীয় মডেলের ক্রমাগত মূল্যায়নঠিক যেমন সফটওয়্যার আপডেট এবং নিরীক্ষিত হয়, তেমনি এআই মডেলগুলিরও নিয়মিত নতুন ডেটা পরীক্ষা, ত্রুটি বিশ্লেষণ, প্যারামিটার সমন্বয় এবং প্রয়োজনে পরিবেশ বা চাহিদার পরিবর্তনের সাথে খাপ খাইয়ে নেওয়ার জন্য সম্পূর্ণ পুনঃপ্রশিক্ষণের প্রয়োজন হয়।
সাইবার নিরাপত্তার মতো ক্ষেত্রগুলিতে, যেখানে একটি হ্যালুসিনেশন একটি অপ্রত্যাশিত দুর্বলতার সূচনা করতে পারে, সেখানে স্বাধীন প্রতিরক্ষা শক্তিশালী করার পরামর্শ দেওয়া হয়: নিবেদিতপ্রাণ নিরাপত্তা সমাধান যা হুমকি পর্যবেক্ষণ এবং ব্লক করে, এমনকি যদি কোনও AI টুল কিছু মিস করে বা একটি অনিরাপদ কনফিগারেশন তৈরি করে।
কৃত্রিম বুদ্ধিমত্তার প্রতি উৎসাহের মাঝে, হ্যালুসিনেশন একটি অস্বস্তিকর কিন্তু প্রয়োজনীয় অনুস্মারক হিসেবে কাজ করে: এই সিস্টেমগুলি জিনিসগুলি "জানে" না, তারা কেবল সম্ভাব্যতা গণনা করেযতক্ষণ পর্যন্ত তারা নির্ভরযোগ্যভাবে কোনটি সত্য এবং কোনটি কেবল বিশ্বাসযোগ্য বলে মনে হয় তার মধ্যে পার্থক্য করতে না পারে, ততক্ষণ পর্যন্ত একটি সমালোচনামূলক চোখ এবং মানবিক যাচাইকরণ উজ্জ্বল কিন্তু বিভ্রান্তিকর উত্তরের সর্বোত্তম প্রতিষেধক হিসাবে থাকবে।