কৃত্রিম বুদ্ধিমত্তা (AI) আধুনিক বিশ্বে একটি শক্তিশালী শক্তি হিসেবে আবির্ভূত হয়েছে। চিকিৎসা, শিক্ষা, শিল্প এবং নিরাপত্তায় এর অবদান অস্বীকার্য। কিন্তু এই প্রযুক্তির দ্রুত অগ্রগতির সঙ্গে সঙ্গে মানবাধিকারের উপর এর প্রভাব নিয়ে গুরুতর প্রশ্ন উঠেছে।
গোপনীয়তা লঙ্ঘন, অসমতা বৃদ্ধি, এবং নজরদারির মতো বিষয়গুলো AI-এর নৈতিক চ্যালেঞ্জ হিসেবে সামনে এসেছে।
এই নিবন্ধে আমরা বিশ্লেষণ করব কীভাবে AI মানবাধিকারকে প্রভাবিত করছে এবং এর নৈতিক সমাধান কী হতে পারে।
মানবাধিকারের অন্যতম মৌলিক অংশ হলো গোপনীয়তা। কিন্তু AI-এর ডেটা-নির্ভর প্রকৃতি এই অধিকারকে হুমকির মুখে ফেলেছে। AI সিস্টেম ব্যক্তিগত তথ্য—যেমন অবস্থান, পছন্দ, এমনকি আচরণ—সংগ্রহ করে বিশ্লেষণ করে।
উদাহরণস্বরূপ, ফেসবুক বা গুগলের মতো প্ল্যাটফর্ম AI ব্যবহার করে ব্যবহারকারীদের ডেটা থেকে বিজ্ঞাপনের জন্য প্রোফাইল তৈরি করে। কিন্তু এই ডেটা যদি অপব্যবহার হয়, তবে তা গোপনীয়তা লঙ্ঘনের কারণ হতে পারে।
২০১৮ সালে কেমব্রিজ অ্যানালিটিকা কেলেঙ্কারি এর একটি উদাহরণ। AI ব্যবহার করে লাখো মানুষের ডেটা সংগ্রহ করে রাজনৈতিক প্রভাব বিস্তার করা হয়েছিল।
AI সিস্টেম প্রায়ই ডেটার মধ্যে থাকা পক্ষপাতিত্বকে প্রতিফলিত করে, যা মানবাধিকারের সমতার নীতিকে ক্ষুণ্ন করে।
উদাহরণস্বরূপ, ২০১৯ সালে যুক্তরাষ্ট্রে একটি AI-চালিত নিয়োগ সিস্টেম মহিলাদের প্রতি পক্ষপাতিত্ব দেখিয়েছিল, কারণ এটি পুরুষ-প্রধান ডেটার উপর প্রশিক্ষিত ছিল।
একইভাবে, ফেসিয়াল রিকগনিশন প্রযুক্তি প্রায়ই গাঢ় ত্বকের মানুষদের শনাক্ত করতে ব্যর্থ হয়, যা জাতিগত অসমতাকে বাড়িয়ে তোলে।ভারতের মতো বৈচিত্র্যময় দেশে এই সমস্যা আরও জটিল হতে পারে। যদি AI সিস্টেম ভাষা, ধর্ম বা অঞ্চলের ভিত্তিতে পক্ষপাতিত্ব করে, তবে তা সামাজিক সমতার জন্য হুমকি হয়ে দাঁড়াবে।
জাতিসংঘের মানবাধিকার সনদের (UDHR) ১ নং অনুচ্ছেদে সমতার কথা বলা হয়েছে, কিন্তু AI-এর অপব্যবহার এই নীতিকে চ্যালেঞ্জ করছে।
AI-চালিত নজরদারি সিস্টেম ব্যক্তিগত স্বাধীনতার জন্য আরেকটি বড় হুমকি। চীনে AI-ভিত্তিক ফেসিয়াল রিকগনিশন ব্যবহার করে নাগরিকদের উপর নজর রাখা হয়, যা “সামাজিক ক্রেডিট সিস্টেম” নামে পরিচিত। এটি মানুষের গোপনীয়তা এবং মত প্রকাশের স্বাধীনতাকে সীমিত করে। ভারতেও আধারের মতো সিস্টেমে AI ব্যবহার নিয়ে উদ্বেগ উঠেছে।
২০১৭ সালে সুপ্রিম কোর্ট গোপনীয়তাকে মৌলিক অধিকার হিসেবে স্বীকৃতি দিয়েছে (পুত্তস্বামী বনাম ভারত সরকার), কিন্তু AI-এর নজরদারি এই অধিকারের জন্য হুমকি হয়ে উঠতে পারে।
AI-এর ডিপফেক প্রযুক্তি মানবাধিকারের আরেকটি দিক—ব্যক্তিগত সম্মান ও মর্যাদা—কে প্রভাবিত করছে। ডিপফেক ব্যবহার করে ভুয়া ভিডিও বা ছবি তৈরি করে ব্যক্তিদের মানহানি করা যায়।
২০২০ সালে ভারতে একজন সেলিব্রিটির ডিপফেক ভিডিও ভাইরাল হয়েছিল, যা তার সম্মানের উপর আঘাত হেনেছিল। UDHR-এর ১২ নং অনুচ্ছেদে ব্যক্তিগত সম্মান রক্ষার কথা বলা হয়েছে, কিন্তু ডিপফেকের দ্রুত বিস্তার এই অধিকারকে চ্যালেঞ্জ করছে।
AI-এর অটোমেশন অনেক পেশায় চাকরি হ্রাস করছে, যা মানুষের অর্থনৈতিক অধিকারের জন্য হুমকি। UDHR-এর ২৩ নং অনুচ্ছেদে কর্মসংস্থানের অধিকারের কথা বলা হয়েছে। কিন্তু AI যদি শ্রমিকদের প্রতিস্থাপন করে, তবে বেকারত্ব বাড়তে পারে।
উদাহরণস্বরূপ, কারখানায় AI-চালিত রোবট ব্যবহার শ্রমিকদের চাকরি কেড়ে নিচ্ছে। এটি সামাজিক অস্থিরতা এবং অসমতা বাড়াতে পারে।
AI-এর এই প্রভাবগুলো কয়েকটি নৈতিক প্রশ্ন তুলে ধরে।
প্রথমত, AI কি মানুষের স্বাধীন ইচ্ছাকে সম্মান করে?
দ্বিতীয়ত, কে এর জন্য দায়ী—ডেভেলপার, ব্যবহারকারী, নাকি সরকার?
তৃতীয়ত, কীভাবে আমরা নিশ্চিত করব যে AI সবার জন্য ন্যায্যভাবে কাজ করে?
এই চ্যালেঞ্জগুলো সমাধানের জন্য নৈতিক কাঠামো এবং আইনি নীতি প্রণয়ন জরুরি।
ইউরোপীয় ইউনিয়নের GDPR (General Data Protection Regulation) AI-এর ডেটা ব্যবহার নিয়ন্ত্রণে একটি উদাহরণ। এটি ব্যক্তিগত তথ্য সুরক্ষার উপর জোর দেয় এবং লঙ্ঘনের জন্য জরিমানার বিধান রাখে।
জাতিসংঘও AI-এর নৈতিক ব্যবহার নিয়ে গাইডলাইন প্রকাশ করেছে।
ভারতেও NITI Aayog-এর AI স্ট্র্যাটেজি নৈতিকতার উপর গুরুত্ব দিয়েছে, কিন্তু বাস্তবায়ন এখনো প্রাথমিক পর্যায়ে।
AI-এর নৈতিক চ্যালেঞ্জ মোকাবিলায় কিছু পদক্ষেপ নেওয়া জরুরি।
AI মানবাধিকারের জন্য একটি দ্বিমুখী তলোয়ার। এটি জীবনকে উন্নত করতে পারে, কিন্তু গোপনীয়তা, সমতা, স্বাধীনতা এবং অর্থনৈতিক অধিকারের জন্য হুমকিও হতে পারে। এই প্রযুক্তির নৈতিক চ্যালেঞ্জ মোকাবিলায় আইন, প্রযুক্তি এবং সামাজিক সচেতনতার সমন্বয় প্রয়োজন।
ভবিষ্যতে AI-কে মানবাধিকারের সঙ্গী হিসেবে গড়ে তুলতে হলে আমাদের দায়িত্বশীল পদক্ষেপ নিতে হবে, যাতে প্রযুক্তি মানুষের কল্যাণে কাজ করে, তাদের অধিকার ক্ষুণ্ন না করে।