ছবি : সংগৃহীত
কৃত্রিম বুদ্ধিমত্তা বা আর্টিফিশিয়াল ইন্টেলিজেন্স নিয়ে আলোচনা হচ্ছে বিভিন্ন আন্তর্জাতিক সম্মেলনে। প্রসঙ্গটি এবার উঠে এসেছে বিশ্বের উন্নত সাত দেশের সংগঠন জি–৭ সম্মেলনেও। ইতালিতে অনুষ্ঠিত এ সম্মেলনের এক বক্তব্যে কৃত্রিম বুদ্ধিমত্তা নিয়ে উদ্বেগ প্রকাশ করেছেন পোপ ফ্রান্সিস।
উন্নত মানের কৃত্রিম বুদ্ধিমত্তা তৈরি করতে গিয়ে যেন মানুষের মর্যাদা কমে না যায়- বিশ্বনেতাদের দিকে এমন চ্যালেঞ্জ ছুঁড়ে দিয়েছেন পোপ। খবর- এপি।
ইতালির প্রধানমন্ত্রী জর্জিয়া মেলোনির আমন্ত্রণে এ বক্তব্য দিতে জি–৭ সম্মেলনে আসেন পোপ ফ্রান্সিস। প্রসঙ্গত উল্লেখ্য যে, এ সম্মেলনে এর আগে কোনো পোপ বক্তব্য রাখেননি।
কৃত্রিম বুদ্ধিমত্তার ক্ষতিকর দিক এবং সম্ভাবনার দিকগুলো নিয়ে বিশেষ এ বক্তব্যে ফ্রান্সিস বলেন, রাজনীতিবিদদের উচিত হবে কৃত্রিম বুদ্ধিমত্তা যেন মানুষের নিয়ন্ত্রণে থাকে তা নিশ্চিত করা। এতে অস্ত্র বা অন্যন্য নিরীহ যন্ত্র ব্যবহারের সিদ্ধান্ত সবসময়েই মানুষের হাতে থাকবে, কৃত্রিম বুদ্ধিমত্তার হাতে নয়।
"আমরা যদি মানুষের জীবনের ব্যাপারে সিদ্ধান্ত নেয়ার ভার যন্ত্রের ওপর (কৃত্রিম বুদ্ধিমত্তার ওপর) ছেড়ে দিই, তাহলে মানবজাতির ভবিষ্যৎ আশাহীন হয়ে পড়বে। কৃত্রিম বুদ্ধিমত্তার নেয়া সিদ্ধান্তের ওপর মানুষের নিয়ন্ত্রণ থাকবে, তা নিশ্চিত করা দরকার: কারণ এর ওপর নির্ভর করছে মানুষের মর্যাদা," বক্তব্যে পোপ বলেন।
শুধু তাই নয়, স্বয়ংক্রিয় অস্ত্রের ব্যবহার নিষিদ্ধ করতেও তিনি আহ্বান জানান।
"মানুষের জীবনহানির সিদ্ধান্ত নেওয়ার ক্ষমতা কোনো যন্ত্রের থাকা উচিত নয়," পোপ বলেন।
জি–৭ সম্মেলনের সমাপনী বক্তব্যেও পোপের এ মনোভাবের প্রতিফলন পাওয়া গেছে। বিশ্বনেতারা কৃত্রিম বুদ্ধিমত্তা নিয়ন্ত্রণ ও তার ওপর মানুষের প্রাধান্য দেওয়ার লক্ষ্যে কৃত্রিম বুদ্ধিমত্তা সংক্রান্ত নীতিমালা প্রণয়নের প্রতিশ্রুতি দেন। এছাড়া শ্রমবাজারে কৃত্রিম বুদ্ধিমত্তার প্রভাব অর্থাৎ যন্ত্রের কাছে মানুষের চাকরি হারানোর সম্ভাবনা এবং অন্যায় প্রতিরোধে অ্যালগরিদমের ব্যবহার নিয়েও তারা কথা বলেন।
কৃত্রিম বুদ্ধিমত্তা যেন নৈতিকভাবে তৈরি এবং ব্যবহার হয়, অতীতেও সে উদ্দেশ্যে একটি আন্তর্জাতিক চুক্তি করার আহ্বান জানিয়েছিলেন ফ্রান্সিস। তার বার্ষিক শান্তি বার্তায় এ আহ্বানের পাশাপাশি পোপ বলেছিলেন, সহানুভূতি, করুণা, নৈতিকতা এবং ক্ষমার অনুভূতি নেই এমন প্রযুক্তি তৈরি করাটা খুবই ঝুঁকিপূর্ণ।
কৃত্রিম বুদ্ধিমত্তা নিয়ে বিশ্বনেতাদের উদ্বেগ নতুন নয়। বর্তমানে চ্যাটজিপিটির মতো যে কৃত্রিম বুদ্ধিমত্তার ব্যবহার দেখা যাচ্ছে। এটা বের হওয়ার আগে ২০১৫ সালের এক সাক্ষাৎকারে কৃত্রিম বুদ্ধিমত্তা নিয়ে উদ্বেগ প্রকাশ করেছিলেন বিশ্বখ্যাত তাত্ত্বিক পদার্থবিদ অধ্যাপক স্টিফেন হকিং। বিবিসিকে দেওয়া ওই সাক্ষাৎকারে তিনি বলেছিলেন, এক পর্যায়ে মানুষের অস্তিত্বের জন্য হুমকি হয়ে উঠতে পারে কৃত্রিম বুদ্ধিমত্তা।
হকিং বলেছিলেন, মানুষের সমপর্যায়ের বা তার চেয়ে বেশি বুদ্ধিমত্তার যন্ত্র তৈরির তৎপরতা উদ্বেগের। এ জাতীয় যন্ত্র একবার তৈরি হলে তারা নিজেরাই নিয়ন্ত্রণ গ্রহণ করবে এবং নিজেদেরকে আরো উন্নত করে নির্মাণ করতে থাকবে।
জৈব বিবর্তনের দিক থেকে ধীর গতির মানুষ এ সব যন্ত্রের সঙ্গে প্রতিযোগিতায় টিকে থাকতে পারবে না। শেষ পর্যন্ত যন্ত্র মানুষকে অতিক্রম করবে বলেও আশঙ্কা প্রকাশ করেন তিনি।
আপন দেশ/এমকেজে
মন্তব্য করুন # খবরের বিষয়বস্তুর সঙ্গে মিল আছে এবং আপত্তিজনক নয়- এমন মন্তব্যই প্রদর্শিত হবে। মন্তব্যগুলো পাঠকের নিজস্ব মতামত, আপন দেশ ডটকম- এর দায়ভার নেবে না।