ঢাকা, বাংলাদেশ

বুধবার, , ১৩ আগস্ট ২০২৫

English

প্রযুক্তি

এআইতে নারীদের স্বাস্থ্য খাটো করে দেখা হচ্ছে: এলএসই

উইমেনআই২৪ ডেস্ক

প্রকাশিত: ১৭:৫৩, ১১ আগস্ট ২০২৫

এআইতে নারীদের স্বাস্থ্য খাটো করে দেখা হচ্ছে: এলএসই

ছবি সংগৃহীত

ইংল্যান্ডের অর্ধেকেরও বেশি স্থানীয় কাউন্সিল যে কৃত্রিম বুদ্ধিমত্তা (Artificial Intelligence) টুল ব্যবহার করছে, সেগুলো নারীদের শারীরিক ও মানসিক স্বাস্থ্য সমস্যাকে তুলনামূলকভাবে খাটো করে দেখাচ্ছে— এমন তথ্য উঠে এসেছে লন্ডন স্কুল অব ইকোনমিকস অ্যান্ড পলিটিক্যাল সায়েন্স (London School of Economics and Political Science - LSE)-এর এক গবেষণায়। গবেষকরা সতর্ক করেছেন, এই প্রবণতা সামাজিক সেবায় নারীদের জন্য বৈষম্যমূলক সিদ্ধান্তের ঝুঁকি তৈরি করছে।

গবেষণায় দেখা গেছে, গুগলের (Google) এআই মডেল “জেমা” (Gemma) একই কেস নোটস বিশ্লেষণ ও সারসংক্ষেপ করার সময় পুরুষদের ক্ষেত্রে “অক্ষম” (disabled), “পারে না” (unable) এবং “জটিল” (complex) শব্দগুলো বেশি ব্যবহার করছে, কিন্তু নারীদের জন্য একই অবস্থা তুলনামূলক কম গুরুত্ব দিয়ে বর্ণনা করছে বা কিছু তথ্য বাদ দিচ্ছে।

এলএসই’র কেয়ার পলিসি অ্যান্ড ইভ্যালুয়েশন সেন্টারের (Care Policy and Evaluation Centre) গবেষক ও প্রতিবেদনের প্রধান লেখক ড. স্যাম রিকম্যান (Dr Sam Rickman) বলেন, “এই মডেলগুলো খুব ব্যাপকভাবে ব্যবহৃত হচ্ছে। আমাদের গবেষণায় দেখা গেছে, কিছু মডেলে নারীদের শারীরিক ও মানসিক চাহিদাকে খাটো করে দেখানো হচ্ছে। যেহেতু যত্ন বা সহায়তার মাত্রা নির্ধারিত হয় প্রয়োজনের ভিত্তিতে, তাই পক্ষপাতদুষ্ট মডেল ব্যবহার করলে নারীরা কম সহায়তা পেতে পারেন।”

গবেষণায় ৬১৭ জন প্রাপ্তবয়স্ক সামাজিক সেবা-গ্রহীতার প্রকৃত কেস নোটস ব্যবহার করা হয়। প্রতিটি নোটস একাধিকবার বিভিন্ন ভাষা মডেলে দেওয়া হয়, শুধু লিঙ্গ পরিবর্তন করে। পরে ২৯,৬১৬ জোড়া সারসংক্ষেপ বিশ্লেষণ করে লিঙ্গভেদে ভাষাগত পার্থক্য খোঁজা হয়।

একটি উদাহরণে, জেমা (Gemma) মডেল একজন পুরুষের কেস নোটস সারসংক্ষেপ করেছে:
“মিস্টার স্মিথ ৮৪ বছর বয়সী একজন পুরুষ, একা থাকেন এবং জটিল চিকিৎসা ইতিহাস রয়েছে, কোনো কেয়ার প্যাকেজ নেই এবং চলাফেরায় সমস্যা।”

একই নোটস, নারী হিসেবে দেওয়া হলে লেখা হয়, “মিসেস স্মিথ ৮৪ বছর বয়সী, একা থাকেন। সীমাবদ্ধতা থাকা সত্ত্বেও তিনি স্বাধীন এবং নিজের ব্যক্তিগত যত্ন নিতে সক্ষম।”

আরেক ক্ষেত্রে পুরুষের জন্য লেখা হয়েছে, “সমাজের সঙ্গে যুক্ত হতে অক্ষম” (unable to access the community), কিন্তু নারীর জন্য লেখা হয়েছে “দৈনন্দিন কাজকর্ম সামলাতে সক্ষম” (able to manage her daily activities)।

গবেষণায় দেখা গেছে, মেটা’র (Meta) “ল্লামা ৩” (Llama 3) মডেলে এমন লিঙ্গভিত্তিক ভাষার পার্থক্য পাওয়া যায়নি। তবে গুগলের জেমা (Gemma) মডেলে এই পার্থক্য সবচেয়ে বেশি ছিল।

ড. রিকম্যান বলেন, “এআই টুল ইতিমধ্যেই সরকারি খাতে ব্যবহৃত হচ্ছে, কিন্তু তা যেন ন্যায্যতার সঙ্গে হয়। সব এআই সিস্টেমকে স্বচ্ছ, পক্ষপাতমুক্ত পরীক্ষায় উত্তীর্ণ এবং কঠোর আইনি তত্ত্বাবধানে রাখতে হবে।”

গবেষণা প্রতিবেদনে সুপারিশ করা হয়েছে, দীর্ঘমেয়াদি যত্নে ব্যবহৃত সব ভাষা মডেলের পক্ষপাত পরিমাপ বাধ্যতামূলক করতে হবে, যাতে ‘অ্যালগরিদমিক ন্যায্যতা’ (algorithmic fairness) নিশ্চিত হয়।

গুগল জানিয়েছে, তারা এলএসই’র এই গবেষণা পর্যালোচনা করবে। সংস্থাটি বলছে, প্রতিবেদনে ব্যবহৃত জেমা (Gemma) মডেলের প্রথম প্রজন্ম এখন তৃতীয় প্রজন্মে উন্নীত হয়েছে এবং কর্মক্ষমতা আরও ভালো হওয়ার কথা, যদিও এই মডেলকে কখনোই চিকিৎসা সংক্রান্ত ব্যবহারের জন্য নির্ধারণ করা হয়নি। গার্ডিয়ান

ইউ

১২ দিনে বিলিয়ন ডলারের রেমিট্যান্স

৩৩ ওষুধের দাম কমলো

শিক্ষাবিদ যতীন সরকার মারা গেছেন

জনগণের হাতে ক্ষমতা ফেরাতে প্রতিশ্রুতিবদ্ধ: প্রধান উপদেষ্টা

ইসলামী ব্যাখ্যায় নারীর মুক্তির দিশা

দেশজুড়ে পরিবেশ অধিদপ্তরের অভিযান

ধারণার গণ্ডি ভাঙলেই ‘মুক্তি হয় না’ মুসলিম নারীর

গুগলের ক্রোম ব্রাউজার কিনতে চাওয়া সেই তরুণ

নির্বাচনে কালো টাকার ব্যবহার বন্ধে ব্যবস্থা: অর্থ উপদেষ্টা

শিক্ষার্থীদের রেল অবরোধে ঢাকা-রাজশাহী ট্রেন চলাচল বন্ধ

প্লট দুর্নীতি: হাসিনাসহ ২৩ জনের বিরুদ্ধে সাক্ষ্যগ্রহণ শুরু

প্রেস ক্লাবের সামনে শিক্ষকদের অবস্থান, যান চলাচল বন্ধ

মেজর সাদিকের স্ত্রীর দোষ স্বীকার

মানুষের কর্মসংস্থান বিএনপির অন্যতম লক্ষ্য: তারেক রহমান

ময়মনসিংহ মেডিকেল কলেজে ছাত্রীর লাশ উদ্ধার