অবাক হবেন ভেবে, এমন দাবা প্রতিযোগিতার মঞ্চ যেখানে গ্যারি ক্যাসপারভ, বিশ্বনাথন আনন্দ, ম্যাগনাস কার্লসেন বা হালের গুকেশ একসঙ্গে খেলছেন। হ্যাঁ, এমন ঘটনার বাস্তব দৃশ্যপট ঘটেছে। তবে সেই মঞ্চে সাধারণ কোনো মানুষ অংশ নেয়নি; বরং খেলেছে বিশ্বের একাধিক কৃত্রিম বুদ্ধিমত্তা।
চ্যাটজিপিটির সঙ্গে গ্রোক এআই দাবার চূড়ান্ত প্রতিযোগিতায় সরাসরি অংশ নেয়। অভূতপূর্ব এমন দাবার প্রতিযোগিতা মঞ্চে অংশ নিয়ে লড়াই করে ওপেনএআই উদ্ভাবিত চ্যাটজিপিটি, ইলন মাস্কের এক্সএআই মডেল গ্রোক-৪-এর মতো বেশ কয়েকটি দুর্দান্ত এআই মডেল।
ইভেন্টে কয়েকটি সংস্থার লার্জ ল্যাঙ্গুয়েজ মডেল (এলএলএম) সরাসরি অংশগ্রহণ করে। আর সেখানেই কৃত্রিম বুদ্ধিমত্তার দাবার প্রতিযোগিতায় বিজয়ী হয়েছে চ্যাটজিপিটি।
সব মিলিয়ে আটটি এলএলএম অংশ নেয় এই প্রতিযোগিতায়। এর মধ্যে ছিল ওপেনএআই, এক্সএআই, গুগল ও অ্যানথ্রোপিকের মতো এআই
মডেল যেমন ছিল, তেমনই ছিল চীনের তৈরি ডিপসিক এবং মুনশট এআই মডেল।
কৃত্রিম মেধার এমন প্রতিযোগিতার চূড়ান্ত পর্বের দিকে গ্রোক এগিয়ে থাকলেও শেষের দিকে চ্যাটজিপিটি পরপর বাজিমাত করতে থাকে। দাবার শেষাংশে
গ্রোক একাধিক ভুল করে বসে। আর ঠিক সেখানেই বাজিমাত করে স্যাম অল্টম্যানের কৃত্রিম বুদ্ধিমত্তা মডেল।
কৃত্রিম বুদ্ধিমত্তার উৎপাত
সারাবিশ্বে সামাজিক মাধ্যমে এখন কৃত্রিম মেধার তৈরি নকল ভিডিওচিত্র আর ছবির ছড়াছড়ি। সঙ্গে ছড়াচ্ছে ভুয়া ভিডিওচিত্রের উত্তাপ আর উন্মাদনা।
ছড়িয়ে পড়া বা ভাইরাল সেসব ভুয়া ছবি বা ভিডিও বিশ্বাস করবেন কিনা, তা নিয়ে অনেকেই হয়ে পড়ছেন বিভ্রান্ত। কীভাবে এআই প্রযুক্তির তৈরি ভিডিওর সত্যতা যাচাই করতে পারবেন, তার সদুত্তরে সামনে দৃশ্যমান হলো বেশ কিছু বিশেষজ্ঞ পরামর্শ।
কৃত্রিম মেধা বা এআই প্রযুক্তির (আর্টিফিশিয়াল ইন্টেলিজেন্স) তৈরি ভিডিওচিত্র নিয়ে পুরো দুনিয়ায় হইচই পড়ে গেছে। ভাইরাল বা ছড়ানো ওই সব ভিডিও যে আসল, না নকল– তা নিয়ে চলছে তর্কবিতর্ক। এতে এআই প্রযুক্তির তৈরি করা ভুয়া ভিডিও কাজে লাগিয়ে অনেক ধরনের অপকর্মের সুযোগ নিচ্ছে সাইবার চক্র। কীভাবে এমন ভুয়া ভিডিও থেকে পরিত্রাণ মিলবে, তা নিয়ে প্রশ্ন এখন সবার, বিশেষ করে তারকাদের জন্য যেন মূর্ত আতঙ্কের নাম ফেস ভিডিও।
বছর কয়েক আগে অবশ্য এমন সমস্যা ছিল না। বিশেষভাবে বিশ্লেষণ করলেই এআই নির্মিত ভুয়া ভিডিও শনাক্ত করতে পারবেন সোশ্যাল মিডিয়ার অনুসারীর; যাচাই করতে পারবেন আদৌ সত্য কিনা। কারণ, এআই নির্মিত সব চরিত্র কথা বলে রোবটিক টোনে, যা মানুষের থেকে অনেকাংশে আলাদা। অন্যদিকে, হাতের আঙুলের নড়াচড়া দেখেও সুস্পষ্টভাবে বোঝা যাবে, কোনটা আসল আর কোন ভিডিও এআই প্রযুক্তি তৈরি করে দিয়েছে।
প্রসঙ্গত, ২০২৫ সালে দুর্দান্ত কারিগরি মানে পৌঁছে গেছে কৃত্রিম মেধাপ্রযুক্তি। ফলে সব ধরনের বাধা পেরিয়ে এআই টুলের মাধ্যমে একেবারে অবিকল, মানে আসলের মতো করে যে কারও ভুয়া ভিডিও তৈরি করতে এআই যেন সিদ্ধহস্ত।
সবশেষ জুনে ইসরায়েল-ইরান যুদ্ধের সময় সারাবিশ্বে ছড়িয়ে পড়ে কৃত্রিম বুদ্ধিমত্তার তৈরি হাজারো ভুয়া সব তথ্যচিত্র। এমন সব ভিডিও আর ছবি দেখে তথ্যপ্রযুক্তি বিশ্লেষকরা আশঙ্কা প্রকাশ করে বলেছেন, মানব ইতিহাসকে এআই যেভাবে প্রভাবিত করতে সক্ষম, তাতে অদূর ভবিষ্যতে আবারও দুটি দেশের মধ্যে যে কোনো সময় বিভ্রান্তির কারণে যুদ্ধের দাবানল ছড়িয়ে যেতে পারে।
কৃত্রিম মেধার দৌড়ে নকল ছবি বা ভিডিওকে ঠিকঠাক চিহ্নিত করার সুনির্দিষ্ট কোনো পদ্ধতি আপাতত নেই। ইতোমধ্যে নকল ভিডিও বন্ধে আপাতত অপারগতা প্রকাশ করেছেন সংশ্লিষ্ট খাতের বিশেষজ্ঞরা।
বিভ্রান্তিকর এআই ভিডিও শনাক্ত করতে অনেকে এখন গুগল রিভার্স ইমেজের দ্বারস্থ হচ্ছেন। এমন প্রযুক্তির সহায়তায় ( ফ্রেম বাই ফ্রেম) ভিডিও বিশ্লেষণ করে সেটি আসল, না নকল– তা অনেকাংশে সঠিকভাবে শনাক্ত করবে এই টুল।
বিশেষজ্ঞ পরামর্শ
হ্যাকার চক্রের কারিগরি বিদ্যার দাপুটে ব্যক্তিজীবনের মুহূর্তকে অনেকাংশে নিজেরাই ঝুঁকির মধ্যে ফেলছেন। অনেকে যেখানে-সেখানে ফ্রিতে পাওয়া পাবলিক ওয়াইফাই সংযোগ উপভোগ করেন। অন্যদিকে, ক্লাউড স্টোরে ব্যক্তিগত ছবি আর ভিডিও রাখার পরিমাণ ক্রমান্বয়ে কমছে। আবার ফোনে কোনো ম্যালওয়্যার বা স্পাইওয়্যার ঢুকেছে কিনা, সেদিকেও একেবারে নজরদারি নেই। ক্ষতির সূচনা এখানেই। প্রধানত অসতর্কতা থাকার কারণেই ব্যক্তিগত মুহূর্তের ছবি ভাইরাল হয়।
আবার সতর্কতা থাকার পরও ব্যক্তিগত মুহূর্তের ছবি বা ভিডিও ভাইরাল হওয়ার নেপথ্যে পাওয়া গেছে বহুমাত্রিক কারণ।
গবেষণায় দেখা গেছে, অধিকাংশ ক্ষেত্রে পেছনের কারণ সম্পর্কের টানাপোড়েন। সঙ্গী বা সঙ্গিনী বিশ্বাস ভঙ্গ করায় বিপাকে পড়ছেন আরেকজন। আবার অনেক সময়ে শুধু ব্ল্যাকমেইল করার জন্য এমন ভাইরাল ভিডিওকে কাজে লাগায় হ্যাকার চক্র।
গ্যাজেট বিশ্লেষকরা বলছেন, অনেক সময় ভুল করে বা অজ্ঞতার কারণে কোনো ভুয়া অ্যাপকে গ্যালারির অ্যাকসেস দিয়ে ফেলেন অনেকে। ঘনিষ্ঠ মুহূর্তের ছবি-ভিডিও এ অবস্থা থেকেও বেহাত হয়ে যায়। কাজে বা ভ্রমণে হোটেলের ওয়াইফাই অ্যাকসেস দেওয়ার সময় কোনোভাবেই ক্যামেরা অ্যাকসেস দেওয়া যাবে না। এর থেকেও বিপত্তির কারণ ঘটতে পারে।
নকল ভিডিওচিত্র যাচাই করার প্রশ্নে সোশ্যাল মিডিয়া অনুসারীদের বিশেষ সতর্ক হওয়ার প্রয়োজন রয়েছে। বাস্তবে অসম্ভব মনে হওয়া এমন কোনো ভিডিও বা ছবি দেখলে বুঝতে হবে, সেটি এআই বানিয়ে দিয়েছে।
অনেক গবেষক বলছেন, মানুষ বা অন্য কোনো প্রাণী অস্বাভাবিক আচরণ করছে– এমন ধরনের ভিডিও হুট করে বিশ্বাস করা থেকে দূরে থাকাই শ্রেয়। পরিচিত বা বিখ্যাত কোনো তারকার হুটহাট বিস্ময়কর ভিডিও যাচাই না করে বিশ্বাস বা শেয়ার করা অনুচিত। সবাই যখন ক্রমান্বয়ে এমন সব ভিডিও থেকে আগ্রহ হারিয়ে ফেলবেন, তখনই এসব কনটেন্ট তৈরির নেপথ্যে কারিগররা আর এতে সময় ও বিনিয়োগ আগ্রহ হারিয়ে ফেলবেন।