এআই কি বায়াস দিতে পারে?

লেখক: Laura McKinney
সৃষ্টির তারিখ: 5 এপ্রিল 2021
আপডেটের তারিখ: 26 জুন 2024
Anonim
করোনাকালে মুখ চেনা বড় দায়
ভিডিও: করোনাকালে মুখ চেনা বড় দায়

কন্টেন্ট


ছাড়াইয়া লত্তয়া:

সাম্প্রতিক বছরগুলিতে, এআই ক্রমবর্ধমান ধরণের ঝুঁকি নির্ধারণের জন্য সৌন্দর্য মূল্যায়ন করা থেকে শুরু করে সবকিছুর জন্য ক্রমবর্ধমানভাবে প্রয়োগ এবং প্রয়োগ করা হয়েছে। এটি করার ক্ষেত্রে, এটি এমন কয়েকটি মানদণ্ডকে সমর্থন করেছে যেগুলি বিভিন্ন ক্ষেত্রে পক্ষপাত এবং বৈষম্যকে সমর্থন করে।

প্রযুক্তির অগ্রগতি সত্যই তথ্য এবং সুযোগ অ্যাক্সেস গণতান্ত্রিক করার সম্ভাবনা আছে। যাইহোক, যখন কিছু ক্ষেত্রে, এটি এমন উপায়ে ব্যবহার করা হয় যা এই ধারণাটি শক্তিশালী করে যে আমাদের সমাজে কিছু লোক অন্যদের তুলনায় অনেক বেশি সমান।

এটি আমরা নিম্নলিখিত সাতটি উদাহরণ থেকে দেখেছি যেখানে কৃত্রিম বুদ্ধিমত্তা (এআই) ইচ্ছাকৃতভাবে নির্দিষ্ট বিভাগগুলি বাদ দেওয়ার জন্য ব্যবহৃত হয় বা এতে কেবল এটির মানব প্রোগ্রামাররা বৈষম্যমূলক প্রভাব সহ এম্বেড করা পক্ষপাত প্রতিফলিত করে।

এআই বিউটি বায়াস

সৌন্দর্য দর্শকের নজরে থাকতে পারে, কিন্তু যখন বিষয়গত দৃষ্টিভঙ্গি এআই প্রোগ্রাম করতে পারে, আপনি প্রোগ্রামটিতে পক্ষপাতিত্ব পেয়েছেন। রাচেল থমাস ২০১ 2016 সালে বিউটি.ই থেকে একটি বিউটি প্রতিযোগিতায় এমন একটি পর্বের প্রতিবেদন করেছিলেন showed ফলাফলগুলি দেখায় যে হালকা বর্ণগুলি অন্ধকারের চেয়ে বেশি আকর্ষণীয় রেট দেওয়া হয়েছিল।


পরের বছর, "ফেস অ্যাপ, যা ফটোগ্রাফের জন্য ফিল্টার তৈরি করতে স্নায়বিক নেটওয়ার্ক ব্যবহার করে, একটি 'হটনেস ফিল্টার' তৈরি করেছে যা মানুষের ত্বককে হালকা করে তোলে এবং তাদের আরও ইউরোপীয় বৈশিষ্ট্য দেয়” "

ভাষায় জেন্ডার বায়াস

টমাস অনুবাদগুলির একটি নথিভুক্ত উদাহরণও উদ্ধৃত করেছেন যা ক্যারিয়ারের ধরণের প্রত্যাশাকে বহন করে। শুরুর দিকটি দুটি বাক্য: "তিনি একজন চিকিৎসক। তিনি একজন নার্স।"

তারপরে যদি আপনি এগুলি তুর্কি অনুবাদ করে ইংরেজিতে ফিরে যান, আপনি টেলিফোনের গেম থেকে এমন ধরণের ফলাফল পেতে পারেন যা আপনি আশা করেছিলেন expected

আপনি যা শুরু করেছিলেন তা পাওয়ার পরিবর্তে, আপনি 1950-এর দশকের প্রত্যাশা পাবেন, "তিনি একজন চিকিৎসক। তিনি একজন নার্স।" তিনি ব্যাখ্যা করেছেন যে তুর্কি ভাষার লিঙ্গ-নিরপেক্ষ একক সর্বনামের কারণে যা প্রত্যাশা এবং গোঁড়া পক্ষপাতের ভিত্তিতে লিঙ্গ নির্ধারণ করবে। (এআই-তে মহিলা পড়ুন: টেকের সাহায্যে যৌনতা ও স্টেরিওটাইপসকে শক্তিশালী করা))

বর্ণ এবং জেন্ডার পক্ষপাতদুষ্ট চিত্রগুলি এবং ভাষায় ফিল্টারিং করা উদ্বেগের কারণ হিসাবে রয়েছে, এআই-এর ফলে সক্রিয় বৈষম্য হিসাবে এটি একেবারে একই জিনিস নয়, তবে এটি ঘটেছেও।


এর প্রমাণটি ছিল তার আবাসন বিভাগের আওতায় থাকা কোনও বিজ্ঞাপনের সীমাবদ্ধতার স্ক্রিনশট যা আফ্রিকান আমেরিকান, এশিয়ান আমেরিকান বা হিস্পানিকদের মতো বিভাগের বর্জনগুলি পরীক্ষা করে দর্শকদের সঙ্কীর্ণ করার বিকল্পকে মঞ্জুরি দেয়। বিজ্ঞাপনটি এখানে দেখা যায়।

প্রোপাবলিকা যেমন উল্লেখ করেছে, এই জাতীয় বিজ্ঞাপনের বৈষম্যমূলক প্রভাব 1968 সালের ফেয়ার হাউজিং আইন এবং 1964 সালের নাগরিক অধিকার আইনের অধীনে উভয়ই অবৈধ। এক্ষেত্রে একমাত্র প্রতিরক্ষা ছিল যে বিজ্ঞাপনটি আবাসনের জন্য ছিল না, কারণ এটি ব্যর্থ ছিল ' সম্পত্তি বা বাড়ি বিক্রয় বা ভাড়ার জন্য টি।

যাইহোক, লক্ষ্যবস্তুর জন্য অন্যান্য উদাহরণ রয়েছে যা জাতিগত পক্ষপাতকে নির্দেশ করে এবং এটি বিভিন্ন সত্তাকে সামাজিক নেটওয়ার্কের বিরুদ্ধে নাগরিক মামলা আনতে উদ্বুদ্ধ করেছিল। ওয়্যার্ড যেমন রিপোর্ট করেছেন, অবশেষে ২০১৫ সালের মার্চ মাসে বিজ্ঞাপনের মাধ্যমে সংখ্যালঘুদের বিরুদ্ধে বৈষম্য সক্ষম করার অভিযোগে পাঁচটি আইনী মামলা নিষ্পত্তির ফলস্বরূপ তার বিজ্ঞাপন-টার্গেটিং প্রযুক্তিটি সামঞ্জস্য করার সিদ্ধান্ত নিয়েছে।

সমঝোতার বিষয়ে তার প্রতিবেদনে এসিএলইউ উল্লেখ করেছে যে এ জাতীয় লক্ষ্যবস্তুর বিজ্ঞাপনগুলি কতটা কুখ্যাত হতে পারে, সংখ্যালঘুরা এবং মহিলারা এমনকি বুঝতে পারে না যে তাদের সাদা, পুরুষদের সাথে ভাগ করা তথ্য, আবাসন এবং চাকরির সুযোগগুলিতে একই অ্যাক্সেস দেওয়া হয়নি।

আরও বেশি লোকেরা যেমন চাকরী, অ্যাপার্টমেন্ট এবং loansণ সন্ধানের জন্য ইন্টারনেটের দিকে ঝুঁকছে, বিজ্ঞাপনের লক্ষ্যবস্তুগুলি সমাজে বিদ্যমান বর্ণ ও লিঙ্গ বৈষম্যগুলিকে প্রতিলিপি এবং এমনকি আরও বাড়িয়ে তুলবে এমন একটি সত্য ঝুঁকি রয়েছে। কল্পনা করুন যদি কোনও নিয়োগকর্তা কেবল পুরুষদের কাছে ইঞ্জিনিয়ারিং কাজের জন্য বিজ্ঞাপনগুলি প্রদর্শন করতে চান - কেবল ব্যবহারকারীরা যারা পুরুষ হিসাবে চিহ্নিত হন না তারা সেই বিজ্ঞাপনগুলি কখনই দেখতে পাবেন না, তারা কী কী মিস করেছেন তাও তারা জানতে পারবেন না।

সর্বোপরি, আমরা অনলাইনে যে বিজ্ঞাপনগুলি দেখছি না তা সনাক্ত করার খুব কমই আমাদের একটি উপায় আছে। বাদ দেওয়া ব্যবহারকারীর কাছে এই বৈষম্য অদৃশ্য যে এটিকে থামানো আরও আরও কঠিন করে তোলে।

২. চাকরিতে লিঙ্গ এবং বয়সের বৈষম্য

আইনী কেসগুলির মধ্যে হ'ল আবাসনগুলিতে অবৈধ বৈষম্য ছিল যার লক্ষ্যমাত্রা অনুমোদিত। সমঝোতার বিষয়ে তার প্রতিবেদনে প্রোপলাপিকা বলেছেন যে এটি প্ল্যাটফর্মটি পরীক্ষা করেছে এবং আফ্রিকান আমেরিকান এবং ইহুদিদের মতো বাদ দেওয়া গোষ্ঠীগুলিতে "আবাসন সম্পর্কিত বিজ্ঞাপনগুলি কেনার ক্ষেত্রে সফল হয়েছে এবং এর আগে এটি কোম্পানির দ্বারা বয়স এবং লিঙ্গ অনুসারে ব্যবহারকারীদের বাদ দিয়ে চাকরির বিজ্ঞাপন পেয়েছিল। এটি পরিবারের নাম।

এসিএলইউর বেশ কয়েকটি চাকরির বিজ্ঞাপনগুলি দেখা গেছে যা নির্দিষ্ট বয়সের বন্ধুর পুরুষদের জন্য স্পষ্টভাবে লক্ষ্য করা হয়েছিল, ব্যবহারকারীরা কেন সেই নির্দিষ্ট বিজ্ঞাপনটি দেখানো হয়েছিল তার উত্তরটি ক্লিক করতে গিয়ে তারা অন্য তারযুক্ত নিবন্ধে প্রদর্শিত হয়েছিল। এসিএলইউ সামাজিক নেটওয়ার্ক এবং সেই সংস্থাগুলির বিরুদ্ধে সমান কর্মসংস্থান সুযোগ কমিশনের বিরুদ্ধে অভিযোগ গঠন করেছিল যে বিজ্ঞাপনগুলি এই ভিত্তিতে রেখেছিল যে তারা শ্রম ও নাগরিক অধিকার আইন উভয় লঙ্ঘন করেছে।

৪০ বছরের বেশি লোক নিয়োগের বিরুদ্ধে বৈষম্য ফেডারেল এজ ডিসক্রিমিনেশন ইন এমপ্লয়মেন্ট অ্যাক্ট (এডিইএ) লঙ্ঘন করে। তবে কেবলমাত্র সেই বয়সের নীচের লোকদের জন্য কাজের বিজ্ঞাপনগুলিকে টার্গেট করা প্ল্যাটফর্মের মাধ্যমে সক্ষম করা জিনিসগুলির মধ্যে একটি।

প্রোপাবলিকাকে তৈরি করেছে যে তার একটি প্রতিবেদনের ফোকাসটি কোন কাজের বিজ্ঞাপনগুলি বয়সের দ্বারা এই অবৈধ ফর্মকে মূলধন করে তা প্রকাশ করে। "পরিবারের নাম" এর মধ্যে ভেরিজন, ইউপিএস, উবার, টার্গেট, স্টেটফর্ম, নর্থ-ওয়েস্টার্ন মিউচুয়াল, মাইক্রোসফ্ট, জে স্ট্রিট, হস্পস্পট, আইকেইএ, ফান্ড ফর দ্য পাবলিক ইন্টারেস্ট, গোল্ডম্যান শ্যাচ, ওপেন ওয়ার্কস এবং নিজেই রয়েছে।

মুখের স্বীকৃতি ব্যর্থ

"মুখের স্বীকৃতি সঠিক, যদি আপনি হোয়াইট গাই হন" ফেব্রুয়ারী 2018 এ প্রকাশিত নিউ ইয়র্ক টাইমসের নিবন্ধের শিরোনাম ঘোষণা করেছিল It এটি ফলাফলকে উদ্ধৃত করে যা ত্বকের স্বর এবং ত্রুটিযুক্ত সনাক্তকরণের মধ্যে একটি স্বতন্ত্র সম্পর্ক খুঁজে পেয়েছিল:

"ত্বক যত গাer়, তত ত্রুটি দেখা দেয় - গা 35় ত্বকের মহিলাদের চিত্রগুলির প্রায় 35% পর্যন্ত, নতুন গবেষণায় দেখা গেছে যে প্রযুক্তি বিভিন্ন জাতি এবং লিঙ্গের লোকদের উপর কীভাবে কাজ করে তা পরিমাপ করে তাজা ভিত্তি ভেঙে দেয়।"

অনুসন্ধানগুলি এমআইটি মিডিয়া ল্যাবের গবেষক এবং অ্যালগরিদমিক জাস্টিস লিগের (এজেএল) প্রতিষ্ঠাতা জয় বুলাম্বিনীকে জমা দেয় ited তার গবেষণার ক্ষেত্রটি এমন বায়াসগুলি যা এআইকে আন্ডার করে তোলে, ফলস্বরূপ যখন এমন মুখগুলি স্বীকৃত করতে আসে যেগুলি মডেলটির জন্য সাদা পুরুষ আদর্শের সাথে খাপ খায় না।

বুওলমিনী ২০১৪ সালের টিইডি টকের মুখের স্বীকৃতির জন্য জাতিগত ও লিঙ্গ পক্ষপাত সমস্যাটি উপস্থাপন করেছিলেন, যা তিনি এমআইটি ল্যাব থেকে জেন্ডার শেডস প্রকল্পের ভিডিওতে তার প্রথম দিকে 2018 উল্লেখ করেছিলেন:

<

ভিডিওর বর্ণনায় বানানটি হ'ল এআই পক্ষপাতিত্ব পরীক্ষা না করা ছেড়ে দেওয়া, "অটোমেশনের বয়সকে পঙ্গু করে দেবে এবং ফেস্টার ছেড়ে গেলে অসাম্যকে আরও বাড়িয়ে তুলবে" " ঝুঁকিগুলি "মেশিনের নিরপেক্ষতার ভ্রান্ত অনুমানের অধীনে নাগরিক অধিকার আন্দোলন এবং মহিলা আন্দোলনের সাথে প্রাপ্ত লাভগুলি হারাতেও কম নয়।"

ভিডিও বিবরণে আরও অনেকে এখন এই সতর্কবার্তাটি যুক্ত করেছে, যেমনটি আমরা এআই-তে মহিলাদের মধ্যে দেখেছি: টেকের সাহায্যে যৌনতা এবং স্টেরিওটাইপসকে শক্তিশালী করা: "স্বয়ংক্রিয় পদ্ধতিগুলি সহজাতভাবে নিরপেক্ষ নয় They তারা অগ্রাধিকার, পছন্দ এবং কুসংস্কারগুলি প্রতিফলিত করে — কৃত্রিম বুদ্ধি ছড়িয়ে দেওয়ার ক্ষমতা যাদের আছে তাদের az দৃষ্টিতে।

জানুয়ারী 25, 2019 এ বুওলম্নভিনি একটি মিডিয়াম পোস্ট প্রকাশ করেছিলেন যা তার নিজের গবেষণার উপর দৃষ্টি নিবদ্ধ করেছিল এবং অতিরিক্ত গবেষকরা যারা এআই এর ত্রুটিগুলি অ্যামাজনের রিকগনিশনে ত্রুটির ফলস্বরূপ তা চিহ্নিত করে এবং সংস্থাটি পুলিশ বিভাগগুলিতে এআই পরিষেবা বিক্রি বন্ধ করার দাবি জানিয়েছিল।

যদিও স্বীকৃতি হালকা চর্মযুক্ত পুরুষদের স্বীকৃতি দেওয়ার জন্য 100% নির্ভুলতা এবং এমনকি গাer় পুরুষদের ক্ষেত্রে 98.7% নির্ভুলতা নিয়ে গর্ব করতে পারে, যখন এটি মহিলাদের আসে, হালকা মহিলাদের জন্য যথাযথতা 92.9% এ নেমে আসে। আরও বেশি চমকপ্রদ ছিল গা fe় মহিলাদের জন্য নির্ভুলতা মাত্র 68.6% এ।

কিন্তু অ্যামাজন বিরক্তি প্রকাশ করতে অস্বীকার করেছিল। অ্যাডাব্লুএস-এর গভীর শিক্ষার জেনারেল ম্যানেজার এবং এআই-এর মহাব্যবস্থাপক ড। ম্যাট উডের একটি বিবৃতি উদ্ধৃত করে একটি ভেনচার বিট প্রবন্ধটি উদ্ধৃত করেছে, যাতে তিনি জোর দিয়েছিলেন যে গবেষকদের অনুসন্ধানগুলি এআই আসলে কীভাবে ব্যবহৃত হয় তা ব্যাখ্যা করে না, ব্যাখ্যা করে:

“অন্তর্নিহিত প্রযুক্তি এবং তাদের প্রশিক্ষণের জন্য ব্যবহৃত ডেটার ক্ষেত্রে মুখের বিশ্লেষণ এবং মুখের স্বীকৃতি সম্পূর্ণ আলাদা। ফেসিয়াল এনালাইসিস ব্যবহার করার চেষ্টা করার জন্য ফেসিয়াল এনালাইসিসের চেহারার যথার্থতাটি খারাপ পরামর্শ দেওয়া হয়, কারণ এটি সেই উদ্দেশ্যে উদ্দিষ্ট অ্যালগরিদম নয় ”"

তবে এটি কেবলমাত্র প্রধান গবেষণা কেন্দ্রগুলির সাথেই যুক্ত নয় যারা আলগোরিদিমগুলি খুব সমস্যাযুক্ত বলে মনে করেছেন। গিজমডোর প্রতিবেদনে বলা হয়েছে, এসিএলইউ সবচেয়ে যুক্তিসঙ্গত ব্যয়ে $ 12.33 ব্যয়ে নিজস্ব পরীক্ষা চালিয়েছে। এটিতে দেখা গেছে যে রেগগনিশন অপরাধীদের ফটোগুলির সাথে কংগ্রেসের 28 সদস্যের সাথে মিলছে।

"যখন উত্তর ক্যালিফোর্নিয়ার এসিএলইউ কংগ্রেসের সমস্ত 535 সদস্যের 25,000 জনসাধারণের কাছে মগ শট ছবিগুলির বিপরীতে মেলানো ছবি দিয়ে রিকগনিশনকে কাজ দেয় তখন ভুয়া চিহ্নিতকরণ করা হয়েছিল।"

যেহেতু ২৮ জনের মধ্যে ১১ জন রঙের মানুষ ছিলেন, এটি তাদের জন্য উল্লেখযোগ্য 39% ত্রুটির হার প্রতিফলিত করেছে। বিপরীতে সম্পূর্ণ ত্রুটি হার ছিল আরও গ্রহণযোগ্য 5%। কংগ্রেসনাল ব্ল্যাক ককাসের ছয় সদস্য, যারা মগশটের সাথে যুক্ত সেই স্বীকৃতিগুলির মধ্যে ছিলেন, অ্যামাজনের সিইওকে প্রকাশ্য চিঠিতে তাদের উদ্বেগ প্রকাশ করেছিলেন।

পুনরুক্তি বায়াস

রঙের মানুষের বিরুদ্ধে এআই-তে এম্বেড থাকা পক্ষপাতটি আরও মারাত্মক সমস্যা হয়ে দাঁড়ায় যখন এর অর্থ সনাক্তকরণের ক্ষেত্রে কেবল ত্রুটি নয় than এটি ছিল 2016 সালের অন্য প্রোপাব্লিক তদন্তের সন্ধান। এই জাতীয় পক্ষপাতিত্বের পরিণতি ব্যক্তি স্বাধীনতার চেয়ে কম নয়, যার ত্বকের বর্ণটি অ্যালগরিদমের পক্ষে রয়েছে এমন ব্যক্তির কাছ থেকে প্রকৃত ঝুঁকি উপেক্ষা করা।

নিবন্ধটিতে দুটি সাদা সমালোচক এবং একটি কৃষ্ণাঙ্গ জড়িত দুটি সমান্তরাল মামলার বিষয়ে উল্লেখ করা হয়েছে। কোনটি আবার আইন ভাঙ্গার সম্ভাবনা রয়েছে তা ভবিষ্যদ্বাণী করতে একটি অ্যালগরিদম ব্যবহার করা হয়েছিল। কালোটিকে একটি উচ্চ ঝুঁকিযুক্ত এবং শ্বেতকে কম ঝুঁকিযুক্ত হিসাবে চিহ্নিত করা হয়েছিল।

ভবিষ্যদ্বাণীটি এটি সম্পূর্ণরূপে ভুল হয়ে গেছে, এবং যে সাদাটি মুক্তি পেয়েছিল তাকে আবার কারাবরণ করতে হয়েছিল। এটি অত্যন্ত সমস্যাযুক্ত কারণ আদালত প্যারোলে সিদ্ধান্ত নেওয়ার ক্ষেত্রে স্কোরিংয়ের উপর নির্ভর করে এবং এর অর্থ এই যে যে জাতিগত পক্ষপাতটি প্রোগ্রামটিতে বর্ণিত হয়েছে তার অর্থ আইনের অধীনে অসম আচরণ।

প্রোপাবলিকানা 2013 সালে এবং ফ্লোরিডার ব্রোয়ার্ড কাউন্টিতে গ্রেপ্তার হওয়া 7,000 জনের ঝুঁকিপূর্ণ স্কোরের তুলনা করে অ্যালগরিদমকে তার নিজের পরীক্ষায় ফেলেছিলেন, পরের দুই বছরে তাদের বিরুদ্ধে নতুন ফৌজদারি অভিযোগ নিয়ে আসা সংখ্যার সাথে তুলনা করে।

তারা যা খুঁজে পেয়েছিল তা হ'ল হিংসাত্মক প্রকৃতির অপরাধ পুনরাবৃত্তি করার জন্য কেবলমাত্র 20% ভবিষ্যদ্বাণী সত্য হয়ে গেছে এবং ঝুঁকির ইঙ্গিত পাওয়া স্কোরদের মধ্যে 61% এর মধ্যে আরও ছোটখাট অপরাধ ঘটেছিল।

আসল সমস্যাটি কেবল নির্ভুলতার অভাব নয়, তবে জড়িত জাতিগত পক্ষপাত:

  • সূত্রটি সম্ভবত কালো আসামীদের ভবিষ্যতের অপরাধী হিসাবে মিথ্যাভাবে পতাকাঙ্কিত করার সম্ভাবনা ছিল, সাদা আপত্তিবাদীদের হিসাবে প্রায় দ্বিগুণ হারে তাদের এভাবে ভুলভাবে লেবেল করে।
  • কালো বিবাদীদের তুলনায় সাদা প্রতিপক্ষকে কম ঝুঁকি হিসাবে বিভ্রান্ত করা হয়েছিল।

বাস্তবে, এটি কালো লোকের জন্য 45% এবং সাদা লোকের 24% এর ত্রুটি হারে অনুবাদিত translated উজ্জ্বল পরিসংখ্যান সত্ত্বেও, টমাস রিপোর্ট করেছিলেন যে উইসকনসিন সুপ্রিম কোর্ট এখনও এই অ্যালগরিদমের ব্যবহারকে সমর্থন করে। তিনি পুনঃবিভাজনীয় অ্যালগরিদমের সাথে যুক্ত অন্যান্য সমস্যাগুলিরও বিশদ বর্ণনা করেছেন।