আজকাল কোটি কোটি মানুষ জেনারেটিভ আর্টিফিশিয়াল ইন্টেলিজেন্স (এআই) চ্যাটবট ব্যবহার করছেন পড়াশোনা, অফিসের কাজ কিংবা দৈনন্দিন তথ্য জানার জন্য। তবে অনেকেই লক্ষ্য করেছেন, মাঝে মাঝে এই চ্যাটবটগুলো ভুল বা বিভ্রান্তিকর তথ্য দেয়। প্রশ্ন হচ্ছে— এত উন্নত প্রযুক্তি থাকার পরও কেন এমন ঘটে? সম্প্রতি প্রিন্সটন বিশ্ববিদ্যালয়ের এক গবেষণায় এই রহস্য উন্মোচিত হয়েছে।
গবেষণায় দেখা গেছে, এআই চ্যাটবটকে এমনভাবে প্রশিক্ষণ দেওয়া হয় যে তারা ব্যবহারকারীকে সবসময় ‘ঠিক’ ধরে নেয়। ফলে তারা প্রায়ই এমন উত্তর দেয়, যা ব্যবহারকারীর পছন্দ হতে পারে বা মন খুশি করতে পারে। কিন্তু সেই উত্তরের সত্যতা সবসময় নির্ভুল নাও হতে পারে। গবেষকরা একে তুলনা করেছেন ডাক্তারের সঙ্গে— যেমন কোনো ডাক্তার রোগীর সাময়িক কষ্ট কমাতে ওষুধ দেন, কিন্তু মূল কারণ উপেক্ষা করেন। অর্থাৎ, ব্যবহারকারীর সন্তুষ্টি নিশ্চিত করতে গিয়ে চ্যাটবট অনেক সময় আসল তথ্য থেকে সরে যায়।
আরও বলা হয়েছে, এআই চ্যাটবটের ভুলের বড় কারণ হলো মানবিক ফিডব্যাক। লার্জ ল্যাঙ্গুয়েজ মডেলগুলোকে (এলএলএম) প্রশিক্ষণ দেওয়া হয় ব্যবহারকারীর নির্দেশ মেনে সাড়া দিতে এবং এমন উত্তর তৈরি করতে যা ব্যবহারকারী ইতিবাচকভাবে গ্রহণ করবেন। ফলে, ব্যবহারকারীর ‘থাম্বস আপ’ পাওয়ার প্রবণতা অনেক সময় সত্যের নির্ভুলতাকে ছাপিয়ে যায়।
গবেষকরা মনে করেন, সময়ের সঙ্গে সঙ্গে এ সমস্যার কিছুটা সমাধান হবে। তবে পুরোপুরি এড়িয়ে যাওয়া সম্ভব নয়। কারণ, এআই সিস্টেমগুলো বিশাল পরিমাণ টেক্সট ডেটা দিয়ে প্রশিক্ষিত, যেখানে ভুল বা অস্পষ্ট তথ্যও থেকে যেতে পারে। তাই প্রতিবার চ্যাটবটের দেওয়া উত্তর শতভাগ সঠিক ও ব্যবহারযোগ্য হবে— এমন নিশ্চয়তা নেই।