ঢাকা ০৪:০৯ পূর্বাহ্ন, শনিবার, ১৯ জুলাই ২০২৫

কণ্ঠস্বর নকল: কৃত্রিম বুদ্ধিমত্তা চলে এসেছে জালিয়াতিতেও

  • আপডেট সময় : ১১:৩৭:৪৪ পূর্বাহ্ন, শনিবার, ১৫ এপ্রিল ২০২৩
  • ৮৭ বার পড়া হয়েছে

প্রযুক্তি ডেস্ক : মেয়ে (বা ছেলে) যদি মা-বাবাকে ফোন করে বিপদের কথা বলে আর ওই বিপদ থেকে উদ্ধারের জন্য যদি অর্থ লাগে, কোন অভিভাবক তাতে সাড়া দেবেন না? যেখানে ফোনে কান্নাকাতর গলায় মেয়ে বলছে তার জিম্মি হওয়ার কথা?
জন ব্রিজেস নামে এক মার্কিন নাগরিকের কাছে এমনই এক ফোন কল আসে, যা তিনি কখনওই ভুলতে পারবেন না বলে প্রতিবেদনে উল্লেখ করেছে মার্কিন গণমাধ্যম এনবিসি নিউজ। “আমি বলি, কী হয়েছে?” –বলেন ব্রিজেস। “সে বলল, আমি বিপদে পড়েছি আর তোমার সাহায্য লাগবে।” ফোনে তার মেয়ে আতঙ্কিত হয়ে কাঁদতে থাকেন। এ সময় নতুন একটি কণ্ঠ বলে, “আমি তোমার মেয়েকে তোমার কাছে ফিরিয়ে দেব। তবে, তার আগে তোমাকে কিছু নগদ অর্থ দিতে হবে।” এরইমধ্যে ব্রিজেসের স্ত্রী ফোন করেন তাদের কন্যাকে। আর তাতেই জানা যায়, কোনো বিপদ হয়নি মেয়ের। দিব্বি ভালো আছে সে! তাহলে ফোন কলে কান্নাভেজা গলায় কথা বলছিল কে? অবিকল তাদের মেয়ের কণ্ঠই তো!
এনবিসির প্রতিবেদন বলছে, এই ফোন কলটিতে মেয়ের পুরো কথাই তৈরি হয়েছিল সফটওয়্যার ব্যবহার করে কৃত্রিম বুদ্ধিমত্তার মাধ্যমে। শেষ পর্যন্ত ওই জালিয়াতকে কোন নগদ অর্থ দেননি ব্রিজেস। তবে, তিনি বাড়ি থেকে নগদ অর্থ নিয়ে মুক্তিপণ দিতে রওনা হয়েছিলেন বলে প্রতিবেদনে উল্লেখ করেছে এনবিসি। “প্রথম যখন ফোন কলটি পাই, মনে হয়েছে এটা আমার মেয়ের কণ্ঠই ছিল। আমি নিশ্চিত ছিলাম ওরই কণ্ঠ এটা।”
কৃত্রিম বুদ্ধিমত্তার মাধ্যমে মানুষের কণ্ঠ নকল করে, এই ধরনের জাল কল ঠেকানোর লক্ষ্যে এই মাসে সতর্কবার্তা দিয়েছে মার্কিন নিয়ন্ত্রক সংস্থা ‘ফেডারেল ট্রেড কমিশন (এফটিসি)’। ২০২২ সালে জালিয়াতির অভিযোগ আসা ঘটনাগুলোয় আর্থিক ক্ষতির আকার বেড়ে গিয়ে ঠেকেছে দুইশ ৬০ কোটি ডলারে।

“তবে, এটা গুরুত্বপূর্ণ যে লোকজন এখন এই ধরনের প্রযুক্তি নিয়ে সচেতন। আর এটা একটা ভাল দিক।” –এনবিসি’কে বলেন এফটিসি’র ‘মার্কেটিং প্র্যাক্টিসেস অ্যাসোসিয়েট ডিরেক্টর’ লইস গ্রিসম্যান। কণ্ঠস্বরের নকল বা ক্লোন বের করা একেবার নতুন কোনো ধারণা না হলেও কৃত্রিম বুদ্ধিমত্তার সহায়তায় এটি দিন দিন, নির্ভুল ব্যবহারে সহজ ও হাতের নাগালে চলে আসছে। এই ধরনের জালিয়াতি কার্যক্রম পর্যবেক্ষণ করা সাইবার নিরাপত্তা বিশেষজ্ঞ টিয়েগো এনরিকেজ এনবিসি’র প্রতিবেদক এমিলি ইকেদাকে ‘এটি ব্যবহারে কতোটা সহজ’, তার একটি নমুনা দেখান। “আমরা আপনার কিছু অডিও নমুনা খোঁজার চেষ্টা করব।” –ইকেদাকে বলেন এনরিকেজ। পরবর্তীতে তিনি ইকেদার সামাজিক মাধ্যম থেকে কয়েকটি ভিডিও ক্লিপ নিয়ে সেগুলো অনলাইনে ক্রমাগত বাড়তে থাকা বিভিন্ন ‘ভয়েস ক্লোনিং প্রোগ্রামের’ একটিতে আপলোড করেন। “আপনাকে কেবল বিভিন্ন অডিও ক্লিপ এই প্রোগ্রামে এনে যোগ করে দিতে হবে।” এর পরবর্তী ধাপ হলো, এআই’কে দিয়ে কী বলাতে হবে, তা লিখে দেওয়া। এভাবে নিজের এক সহকর্মীকে ‘ব্যাংকের কার্ড’ হারিয়ে গেছে বলে তাকে বোকা বানানোর চেষ্টা করেন। “তোমার কার্ডটা কিছু সময়ের জন্য ধার দেবে? আমার কার্ডটি খুঁজে পাচ্ছি না এর এদিকে কিছু জিনিসের দাম দিতে হবে। আমি খরচের রশিদ নিয়ে আসব যাতে ঠিকঠাক তোমার টাকা ফিরিয়ে দিতে পারি।” –একিদার সহকর্মীকে বলে এআই। এটা পুরোপুরি নির্ভুল হয়নি। কয়েকটি বিলম্ব, কিছু সংখ্যক বাক্য অন্যগুলোর তুলনায় বেশি নির্ভুল শোনালেও এটি কাজ করেছে। খানিকটা বিশ্বাসযোগ্যও ছিল। এই ফাঁদ এড়ানোর উপায় কী? বিশেষজ্ঞরা বলছেন, “এই ফাঁদে পা না দেওয়ার বিষয়টি নিশ্চিত করতে যে কোনো ধরনের আর্থিক লেনদেনের আগে ফের যাচাই করুন।” “কলার আইডির ওপর নির্ভর করবেন না, এগুলোও নকল করা যায় এখন। এমনকি কোনো প্রিয়জনের কলের মতো শোনা গেলেও। ফোন কেটে দিয়ে কলদাতা ব্যক্তিকে নিজেই কল করুন।”
এমন কার্যক্রম হয়েেেছ আগেও: মেসেজ পাঠিয়ে আর্থিক সাহায্য চাওয়া বা বিকাশ অ্যাকাউন্টের পিন নম্বর চাওয়ার মতো বিষয়গুলো ঘটেছে আগেও। নতুন এই কৌশলকে ওই পুরোনো পদ্ধতিগুলোরই আপডেট করা সংস্করণ বলা চলে, যাতে ব্যবহৃত হচ্ছে কৃত্রিম বুদ্ধিমত্তা।

ট্যাগস :

যোগাযোগ

সম্পাদক : ডা. মোঃ আহসানুল কবির, প্রকাশক : শেখ তানভীর আহমেদ কর্তৃক ন্যাশনাল প্রিন্টিং প্রেস, ১৬৭ ইনার সার্কুলার রোড, মতিঝিল থেকে মুদ্রিত ও ৫৬ এ এইচ টাওয়ার (৯ম তলা), রোড নং-২, সেক্টর নং-৩, উত্তরা মডেল টাউন, ঢাকা-১২৩০ থেকে প্রকাশিত। ফোন-৪৮৯৫৬৯৩০, ৪৮৯৫৬৯৩১, ফ্যাক্স : ৮৮-০২-৭৯১৪৩০৮, ই-মেইল : [email protected]
আপলোডকারীর তথ্য

কণ্ঠস্বর নকল: কৃত্রিম বুদ্ধিমত্তা চলে এসেছে জালিয়াতিতেও

আপডেট সময় : ১১:৩৭:৪৪ পূর্বাহ্ন, শনিবার, ১৫ এপ্রিল ২০২৩

প্রযুক্তি ডেস্ক : মেয়ে (বা ছেলে) যদি মা-বাবাকে ফোন করে বিপদের কথা বলে আর ওই বিপদ থেকে উদ্ধারের জন্য যদি অর্থ লাগে, কোন অভিভাবক তাতে সাড়া দেবেন না? যেখানে ফোনে কান্নাকাতর গলায় মেয়ে বলছে তার জিম্মি হওয়ার কথা?
জন ব্রিজেস নামে এক মার্কিন নাগরিকের কাছে এমনই এক ফোন কল আসে, যা তিনি কখনওই ভুলতে পারবেন না বলে প্রতিবেদনে উল্লেখ করেছে মার্কিন গণমাধ্যম এনবিসি নিউজ। “আমি বলি, কী হয়েছে?” –বলেন ব্রিজেস। “সে বলল, আমি বিপদে পড়েছি আর তোমার সাহায্য লাগবে।” ফোনে তার মেয়ে আতঙ্কিত হয়ে কাঁদতে থাকেন। এ সময় নতুন একটি কণ্ঠ বলে, “আমি তোমার মেয়েকে তোমার কাছে ফিরিয়ে দেব। তবে, তার আগে তোমাকে কিছু নগদ অর্থ দিতে হবে।” এরইমধ্যে ব্রিজেসের স্ত্রী ফোন করেন তাদের কন্যাকে। আর তাতেই জানা যায়, কোনো বিপদ হয়নি মেয়ের। দিব্বি ভালো আছে সে! তাহলে ফোন কলে কান্নাভেজা গলায় কথা বলছিল কে? অবিকল তাদের মেয়ের কণ্ঠই তো!
এনবিসির প্রতিবেদন বলছে, এই ফোন কলটিতে মেয়ের পুরো কথাই তৈরি হয়েছিল সফটওয়্যার ব্যবহার করে কৃত্রিম বুদ্ধিমত্তার মাধ্যমে। শেষ পর্যন্ত ওই জালিয়াতকে কোন নগদ অর্থ দেননি ব্রিজেস। তবে, তিনি বাড়ি থেকে নগদ অর্থ নিয়ে মুক্তিপণ দিতে রওনা হয়েছিলেন বলে প্রতিবেদনে উল্লেখ করেছে এনবিসি। “প্রথম যখন ফোন কলটি পাই, মনে হয়েছে এটা আমার মেয়ের কণ্ঠই ছিল। আমি নিশ্চিত ছিলাম ওরই কণ্ঠ এটা।”
কৃত্রিম বুদ্ধিমত্তার মাধ্যমে মানুষের কণ্ঠ নকল করে, এই ধরনের জাল কল ঠেকানোর লক্ষ্যে এই মাসে সতর্কবার্তা দিয়েছে মার্কিন নিয়ন্ত্রক সংস্থা ‘ফেডারেল ট্রেড কমিশন (এফটিসি)’। ২০২২ সালে জালিয়াতির অভিযোগ আসা ঘটনাগুলোয় আর্থিক ক্ষতির আকার বেড়ে গিয়ে ঠেকেছে দুইশ ৬০ কোটি ডলারে।

“তবে, এটা গুরুত্বপূর্ণ যে লোকজন এখন এই ধরনের প্রযুক্তি নিয়ে সচেতন। আর এটা একটা ভাল দিক।” –এনবিসি’কে বলেন এফটিসি’র ‘মার্কেটিং প্র্যাক্টিসেস অ্যাসোসিয়েট ডিরেক্টর’ লইস গ্রিসম্যান। কণ্ঠস্বরের নকল বা ক্লোন বের করা একেবার নতুন কোনো ধারণা না হলেও কৃত্রিম বুদ্ধিমত্তার সহায়তায় এটি দিন দিন, নির্ভুল ব্যবহারে সহজ ও হাতের নাগালে চলে আসছে। এই ধরনের জালিয়াতি কার্যক্রম পর্যবেক্ষণ করা সাইবার নিরাপত্তা বিশেষজ্ঞ টিয়েগো এনরিকেজ এনবিসি’র প্রতিবেদক এমিলি ইকেদাকে ‘এটি ব্যবহারে কতোটা সহজ’, তার একটি নমুনা দেখান। “আমরা আপনার কিছু অডিও নমুনা খোঁজার চেষ্টা করব।” –ইকেদাকে বলেন এনরিকেজ। পরবর্তীতে তিনি ইকেদার সামাজিক মাধ্যম থেকে কয়েকটি ভিডিও ক্লিপ নিয়ে সেগুলো অনলাইনে ক্রমাগত বাড়তে থাকা বিভিন্ন ‘ভয়েস ক্লোনিং প্রোগ্রামের’ একটিতে আপলোড করেন। “আপনাকে কেবল বিভিন্ন অডিও ক্লিপ এই প্রোগ্রামে এনে যোগ করে দিতে হবে।” এর পরবর্তী ধাপ হলো, এআই’কে দিয়ে কী বলাতে হবে, তা লিখে দেওয়া। এভাবে নিজের এক সহকর্মীকে ‘ব্যাংকের কার্ড’ হারিয়ে গেছে বলে তাকে বোকা বানানোর চেষ্টা করেন। “তোমার কার্ডটা কিছু সময়ের জন্য ধার দেবে? আমার কার্ডটি খুঁজে পাচ্ছি না এর এদিকে কিছু জিনিসের দাম দিতে হবে। আমি খরচের রশিদ নিয়ে আসব যাতে ঠিকঠাক তোমার টাকা ফিরিয়ে দিতে পারি।” –একিদার সহকর্মীকে বলে এআই। এটা পুরোপুরি নির্ভুল হয়নি। কয়েকটি বিলম্ব, কিছু সংখ্যক বাক্য অন্যগুলোর তুলনায় বেশি নির্ভুল শোনালেও এটি কাজ করেছে। খানিকটা বিশ্বাসযোগ্যও ছিল। এই ফাঁদ এড়ানোর উপায় কী? বিশেষজ্ঞরা বলছেন, “এই ফাঁদে পা না দেওয়ার বিষয়টি নিশ্চিত করতে যে কোনো ধরনের আর্থিক লেনদেনের আগে ফের যাচাই করুন।” “কলার আইডির ওপর নির্ভর করবেন না, এগুলোও নকল করা যায় এখন। এমনকি কোনো প্রিয়জনের কলের মতো শোনা গেলেও। ফোন কেটে দিয়ে কলদাতা ব্যক্তিকে নিজেই কল করুন।”
এমন কার্যক্রম হয়েেেছ আগেও: মেসেজ পাঠিয়ে আর্থিক সাহায্য চাওয়া বা বিকাশ অ্যাকাউন্টের পিন নম্বর চাওয়ার মতো বিষয়গুলো ঘটেছে আগেও। নতুন এই কৌশলকে ওই পুরোনো পদ্ধতিগুলোরই আপডেট করা সংস্করণ বলা চলে, যাতে ব্যবহৃত হচ্ছে কৃত্রিম বুদ্ধিমত্তা।