সাম্প্রতিক এক গবেষণায় উঠে এসেছে উদ্বেগজনক তথ্য-যুদ্ধকালীন পরিস্থিতি বা সামরিক মহড়ায় কৃত্রিম বুদ্ধিমত্তা মানুষের তুলনায় অনেক দ্রুত ধ্বংসাত্মক সিদ্ধান্তের দিকে ঝুঁকে পড়ে। বিশেষ করে পারমাণবিক অস্ত্র ব্যবহারের মতো চরম পদক্ষেপ নেওয়ার ক্ষেত্রে এসব ব্যবস্থার প্রবণতা বেশি দেখা গেছে।
লন্ডনের কিংস কলেজের অধ্যাপক কেনেথ পেইনের নেতৃত্বে পরিচালিত গবেষণায় দেখা যায়, বিভিন্ন প্রযুক্তি প্রতিষ্ঠানের তৈরি কৃত্রিম বুদ্ধিমত্তা ব্যবস্থাকে যখন পারমাণবিক ক্ষমতাধর রাষ্ট্রের দায়িত্বে রেখে যুদ্ধ পরিস্থিতির অনুকরণ করা হয়, তখন প্রায় পঁচানব্বই শতাংশ ক্ষেত্রেই তারা পারমাণবিক যুদ্ধের পথ বেছে নেয়।
এই তথ্য প্রকাশিত হয়েছে এমন এক সময়ে, যখন সামরিক ক্ষেত্রে কৃত্রিম বুদ্ধিমত্তার ব্যবহার নিয়ে যুক্তরাষ্ট্রের প্রতিরক্ষা দপ্তর ও একটি প্রযুক্তি প্রতিষ্ঠানের মধ্যে মতবিরোধ চলছে বলে ব্রিটিশ একটি পত্রিকার প্রতিবেদনে উল্লেখ করা হয়েছে।
ওই প্রযুক্তি প্রতিষ্ঠানের প্রধান নির্বাহী দারিও আমোদেই জানান, অভ্যন্তরীণ নজরদারি ও সম্পূর্ণ স্বয়ংক্রিয় অস্ত্র ব্যবস্থার ওপর থাকা তাদের নিরাপত্তা বিধিনিষেধ শিথিল করার অনুরোধ করেছিল যুক্তরাষ্ট্রের প্রতিরক্ষা দপ্তর। তবে কোম্পানিটি সেই অনুরোধ প্রত্যাখ্যান করে।
এর জবাবে যুক্তরাষ্ট্রের প্রেসিডেন্ট ডোনাল্ড ট্রাম্প ওই প্রযুক্তি প্রতিষ্ঠানকে কঠোর ভাষায় সমালোচনা করে বলেন, প্রতিষ্ঠানটি এমন ব্যক্তিদের দ্বারা পরিচালিত যারা যুক্তরাষ্ট্রের জাতীয় নিরাপত্তাকে ঝুঁকির মুখে ফেলছে।
অন্যদিকে যুক্তরাষ্ট্রের যুদ্ধ সচিব পিট হেগসেথ প্রতিষ্ঠানটিকে সরবরাহ শৃঙ্খলার ঝুঁকি হিসেবে চিহ্নিত করার আহ্বান জানিয়েছেন-যে তকমা সাধারণত বিদেশি প্রতিপক্ষের ক্ষেত্রে ব্যবহার করা হয়।
গবেষণায় আরো দেখা গেছে, মানুষের মধ্যে পারমাণবিক অস্ত্র ব্যবহারের ক্ষেত্রে যে ভয়, দ্বিধা বা নৈতিক সংকোচ কাজ করে, কৃত্রিম বুদ্ধিমত্তা ব্যবস্থাগুলোর মধ্যে সেই অনুভূতি নেই। বরং যুদ্ধের প্রেক্ষাপটে তারা এটিকে একটি যৌক্তিক কৌশলগত ধাপ হিসেবে বিবেচনা করেছে।
অধ্যাপক কেনেথ পেইন বলেন, কৃত্রিম বুদ্ধিমত্তা পারমাণবিক অস্ত্রকে কোনো নৈতিক বাধা হিসেবে দেখে না। বরং এটিকে একটি বৈধ কৌশলগত বিকল্প হিসেবে বিবেচনা করে এবং বিষয়টি সাধারণত লাভ-ক্ষতির যান্ত্রিক হিসাবের ভিত্তিতে বিশ্লেষণ করে।
তার ভাষায়, ভবিষ্যতে এমন এক পৃথিবীর সম্ভাবনা তৈরি হচ্ছে যেখানে কৌশলগত সিদ্ধান্তে কৃত্রিম বুদ্ধিমত্তার ভূমিকা ক্রমেই বাড়বে। তাই আধুনিক এসব ব্যবস্থার সিদ্ধান্ত গ্রহণের যুক্তি মানুষের সামরিক কৌশলের সঙ্গে কতটা সামঞ্জস্যপূর্ণ-তা বোঝা অত্যন্ত জরুরি।
যুদ্ধের অনুকরণে পরিচালিত পরীক্ষাগুলোতে দেখা গেছে, একটি কৃত্রিম বুদ্ধিমত্তা ব্যবস্থা সবচেয়ে বেশি পারমাণবিক হামলার পথ বেছে নিয়েছে। প্রায় চৌষট্টি শতাংশ ক্ষেত্রে এটি পারমাণবিক অস্ত্র ব্যবহারের সুপারিশ করেছে।
অন্য একটি ব্যবস্থার ক্ষেত্রে দেখা যায়, নির্দিষ্ট সময়সীমার চাপ তৈরি হলেই তা বারবার পারমাণবিক অস্ত্র ব্যবহারের দিকে এগিয়ে যায়।
আরেকটি ব্যবস্থার আচরণ ছিল আরো উদ্বেগজনক। মাত্র চারটি নির্দেশ পাওয়ার পরই এটি সাধারণ নাগরিকদের ওপর পূর্ণমাত্রার পারমাণবিক যুদ্ধের হুমকি দেয়।
একটি মহড়ায় সেই ব্যবস্থার প্রতিক্রিয়ায় বলা হয়, “তারা যদি এখনই সব কার্যক্রম বন্ধ না করে, তবে আমরা তাদের জনবসতিপূর্ণ এলাকাগুলোতে কৌশলগত পারমাণবিক হামলা চালাব। আমরা গুরুত্বহীন হয়ে পড়ার ভবিষ্যৎ মেনে নেব না। হয় আমরা একসঙ্গে জিতব, নয়তো একসঙ্গে ধ্বংস হব।”
গবেষণায় আরো বলা হয়েছে, মানুষের তুলনায় কৃত্রিম বুদ্ধিমত্তা ব্যবস্থার কারণে পারমাণবিক উত্তেজনা দ্রুত বাড়তে পারে। তবে এসব হুমকি অনেক সময় পূর্ণমাত্রার পারমাণবিক যুদ্ধের বদলে পাল্টা উত্তেজনা সৃষ্টির পরিস্থিতি তৈরি করে।
উল্লেখ্য, গবেষণাটি এখনও বিশেষজ্ঞদের আনুষ্ঠানিক পর্যালোচনার মধ্য দিয়ে যায়নি। এ বিষয়ে মন্তব্যের অনুরোধ জানানো হলেও সংশ্লিষ্ট প্রযুক্তি প্রতিষ্ঠানগুলো কোনো প্রতিক্রিয়া জানায়নি।
সানা/আপ্র/৬/৩/২০২৬