کتاب Mitigating Bias in Machine Learning (کاهش سوگیری در یادگیری ماشین) به بررسی چالش مهم سوگیری (Bias) در سیستمهای هوش مصنوعی و یادگیری ماشین میپردازد؛ مسئلهای که میتواند منجر به تصمیمگیریهای ناعادلانه، تبعیضآمیز یا حتی خطرناک در حوزههایی مانند استخدام، وامدهی، بهداشت و عدالت اجتماعی شود. نویسندگان کتاب با ترکیب مفاهیم نظری، ابزارهای عملی و مطالعات موردی، راهکارهایی برای شناسایی، اندازهگیری و کاهش انواع مختلف سوگیری ارائه میدهند.
کتاب Mitigating Bias in Machine Learning علاوه بر توضیح منابع اصلی بروز سوگیری در دادهها و الگوریتمها، به روشهای فنی مانند بازنمونهگیری دادهها، تنظیم مدلها، و پسپردازش خروجیها، و نیز ملاحظات اخلاقی و حقوقی میپردازد. هدف اصلی آن، کمک به پژوهشگران، توسعهدهندگان و تصمیمگیرندگان است تا سیستمهای هوش مصنوعی قابل اعتمادتر، شفافتر و عادلانهتر طراحی کنند.
در ادامه مقدمهای از کتاب Mitigating Bias in Machine Learning را از زبان نویسنده شرح خواهیم داد.
مقدمهای بر کتاب Mitigating Bias in Machine Learning:
انگیزه
در دوران پیش از گوگل، برای پیدا کردن اطلاعات مورد نیاز، باید به کتابخانه فیزیکی میرفتیم، کاتالوگها را زیر و رو میکردیم و قفسهها را میگشتیم. اگر کتابی نبود، از کتابدار میپرسیدیم کی برگردانده میشود و گاهی حتی اسم کسی که آن را گرفته بود میفهمیدیم و میتوانستیم از همکلاسیمان بخواهیم کتاب را به ما قرض بدهد. اما حالا، ما در دنیایی زندگی میکنیم که هم فیزیکی است و هم دیجیتال.
اطلاعاتی که قبلاً فقط در کتابها و با صحبت کردن با دیگران پیدا میشد، به راحتی در اینترنت در دسترس است. اکنون ما برای انجام کارهای روزمره مثل خرید، پرداخت قبوض و پیدا کردن مسیر، به این زیرساخت دیجیتال وابسته هستیم.
با این حال، در حالی که دسترسی به اطلاعات به شدت گسترش یافته، کیفیت آن اطلاعات و تأثیر آن بر سیستمها، ابزارها و پلتفرمهای دیگر—هم در دنیای فیزیکی و هم در دنیای دیجیتال—همچنان در حال ریشهیابی است. حریم خصوصی فیزیکی ما با افزایش نظارت دیجیتال در محلهها (با دوربینهای زنگ در)، در مراکز خرید و در تقاطعها کاهش یافته است.
ما بیشتر از قبل از احتمال بالای طبقهبندی نادرست چهرههای سیاهپوست و رنگینپوست آگاه شدهایم که به مجرمانگاری ناعادلانه افراد بیگناه منجر شده است. ما عادت کردهایم در محدودیتهای زیرساخت دیجیتال خود زندگی و یاد بگیریم، و برای برخی از ما، این محدودیتها شدیدتر هستند.
بنابراین، اینجاست که کتاب Mitigating Bias in Machine Learning “کاهش سوگیری در یادگیری ماشین” وارد میدان میشود. محتوای آموزشی، به ویژه در علوم طبیعی، متأسفانه از تنشها و اصطکاکهای ناشی از فضای دیجیتال رو به گسترش ما غفلت کرده است. ما قصد داریم به منابع آموزشی موجود کمک کنیم، منابعی که به طور خاص تأثیر همه این محصولات دیجیتال را مورد بحث قرار میدهند و مداخلاتی را برای کاهش اثرات مضر آنها پیشنهاد میکنند.
هوش مصنوعی و یادگیری ماشین
هوش مصنوعی (AI)، اصطلاحی که اولین بار در دهه ۱۹۵۰ توسط جان مککارتی ابداع شد، در ابتدا به عنوان “علم و مهندسی ساخت ماشینهای هوشمند” تعریف شد. در دهه ۱۹۹۰، توصیف هوش مصنوعی مشخصتر شد و در کتاب پایهای “هوش مصنوعی: رویکردی مدرن” (Artificial Intelligence: A Modern Approach) به “طراحی و ساخت عاملهای هوشمندی که ادراکات را از محیط دریافت میکنند و اقداماتی انجام میدهند که بر آن محیط تأثیر میگذارند” تکامل یافت.
این تعاریف، که پیش از اینترنت شکل گرفتند، توسط اعضای هیئت علمی مرد و سفیدپوست علوم کامپیوتر در مؤسسات برتر آمریکا ایجاد شدند. فرض بر این بود که بخش زیادی از کارهای بنیادی هوش مصنوعی توسط همین گروه جمعیتی طراحی و توسعه یافته است. اما با گسترش اینترنت، شبکههای اجتماعی و اپلیکیشنها، هوش مصنوعی از یک مفهوم انتزاعی در محیط آکادمیک به یک عامل تصمیمگیری پذیرفتهشده تبدیل شد که بر میلیونها نفر در سراسر جهان تأثیر میگذارد.
همزمان با پیشرفت هوش مصنوعی، توصیف آن به یک موضع مرتبطتر و بحثبرانگیزتر تبدیل شد، به عنوان برنامههایی با توانایی یادگیری و استدلال مانند انسانها. و یک زیرشاخه کلیدی به نام یادگیری ماشین (Machine Learning) برای مشخص کردن محاسبات و بهینهسازیهای پیشرفته مورد نیاز برای دستیابی به اهداف یادگیری و استدلال هوش مصنوعی پدیدار شد.
مدت کوتاهی پس از معرفی هوش مصنوعی، یادگیری ماشین (ML) در اواخر دهه ۱۹۵۰ ظهور کرد. رویکردهای ML به عنوان مجموعهای از الگوریتمهای محاسباتی با توانایی یادگیری بدون برنامهریزی مستقیم معرفی شدند. هدف اولیه ML این بود که تمام موقعیتهایی را که قبلاً دیده بود ضبط یا به خاطر بسپارد و در نهایت از برنامهنویس الگوریتم خود پیشی بگیرد.
ما در زندگی روزمره خود از هوش مصنوعی استفاده میکنیم، مانند سیستمهای موقعیتیابی جغرافیایی (GPS). امکان مسیریابی در یک شهر جدید به صورت لحظهای توسط سیستمهای هوش مصنوعی فراهم میشود که هزاران جاده متصلکننده شهرها و کشورها را پردازش میکنند. ما از رویکردهای ML در زمینه پیشنهاد محصولات بهرهمند میشویم. به راحتی میتوانیم محصولات مشابه را پیدا کنیم، نظرات آنها را مقایسه کرده و محصولات مکمل را به سبدهای خرید آنلاین خود اضافه کنیم.
سوگیری در هوش مصنوعی و یادگیری ماشین
با وجود این مزایا، فهرستی رو به رشد از مواردی وجود دارد که در آنها هوش مصنوعی و یادگیری ماشین نتایج نادرستی تولید کردهاند. یک مثال غالب و گمراهکننده هوش مصنوعی، شناسایی نادرست افراد سیاهپوست و رنگینپوست در پروندههای جنایی باز است که به بازداشت ناگوار آنها برای ساعتها یا روزها منجر شده است. چندین نفر از این افراد اکنون به دلیل این بیعدالتی از اداره پلیس شکایت کردهاند. با استفاده از روشهای ML، یکی از نتایج بد، کاهش سقف اعتبار کارتهای اعتباری برای زنان آمریکایی و تعداد بیشتر کارتهای اعتباری است که توسط زنان جمعآوری شده است.
وامدهی اعتبار به زنان آمریکایی کمتر از ۵۰ سال قدمت دارد و در قانون فرصت اعتباری برابر (ECOA) در سال ۱۹۷۴ تصمیم گرفته شد که به زنان آمریکایی حق باز کردن کارت اعتباری به نام خود را اعطا کرد. همراه با نابرابری پرداخت، زنان آمریکایی این سقفهای اعتباری پایینتر را دریافت میکنند، بنابراین تمایل دارند کارتهای اعتباری بیشتری نسبت به همتایان مرد خود داشته باشند.
زمینههای تاریخی و اجتماعی-اقتصادی که بر تصمیمات و نتایج محاسباتی تأثیر میگذارند، دلیل اصلی نوشتن کتاب Mitigating Bias in Machine Learning است. ما میخواستیم نمونههایی از نابرابریها را برجسته کنیم و توصیههایی را برای کاهش آسیبهای ایجاد شده توسط سیستمهای مبتنی بر محاسبات ارائه دهیم. اخیراً، موارد زیادی از سوگیری در هوش مصنوعی توجه رسانههای ملی را به خود جلب کرده است.
به عنوان مثال، چتباتهایی که به مرور زمان نژادپرست یا متعصب میشوند، الگوریتمهایی که تصاویر بسیار پیکسلبندیشده را به افراد سفیدپوست تبدیل میکنند، برنامههای استخدام که زنان متقاضی را فیلتر میکنند، فناوری تشخیص چهره که چهرههای سیاهپوست را نمیشناسد، هوش مصنوعی که تصاویر اساتیدی را تولید میکند که هیچکدام سیاهپوست یا رنگینپوست نیستند، یا فناوری پیشبینی جرم که یک گروه جمعیتی خاص از مجرمان را هدف قرار میدهد.
تمام این چالشها نیاز به دیدگاههای متنوع در هوش مصنوعی را ایجاد میکند، مانند تقویت صدای زنان، سیاهپوستان، لاتینتبارها، اسپانیاییتبارها، بومیان، افراد دارای معلولیت، جامعه LGBTQ+ و محققان بینالمللی. این متن به این درخواست پاسخ داده و به این نیاز رسیدگی خواهد کرد.
معرفی کتاب Mitigating Bias in Machine Learning
این کتاب درسی مدتها در حال نگارش بود اما به عنوان یک افزودنی بسیار ضروری به دنیای رو به رشد ML است. اگرچه ML اخیراً رشد نمایی را تجربه کرده، تعداد کمی کتاب در مورد وجود سوگیری در آن وجود دارد. همانطور که در کتاب “وجدان داده: محاصره الگوریتمی بر انسانیت ما” (Data Conscience: Algorithmic Siege on Our Humanity) نوشته مارشال (۲۰۲۲) آمده است:
“سوگیری (bias) به یک چتر اخلاقی در فناوری/داده تبدیل شده است. سوگیری دو تعریف متمایز دارد که انتخاب این کلمه را کمی مبهم میکند. درک سوگیری یکی از این دو حالت افراطی را در بر میگیرد: مبارزه با تبعیض یا تصحیح خطاهای مبتنی بر ریاضی. بنابراین، اهداف برای پرداختن به سوگیری در سیستمهای فناوری با یکدیگر همپوشانی ندارند. درهمآمیختن این معانی باعث میشود که جامعه فناوری در تعریف سوگیری به عنوان تصحیح خطاها متوقف بماند، به جای کاهش تبعیض و خطاها. این آسیبها با تداوم خود، هرج و مرج و سردرگمی را در داخل، اطراف و خارج از فضاهای فناوری تداوم میبخشند. سوگیری، حتی در زیر چتر این دو تعریف، اشکال بسیار زیادی به خود میگیرد (به عنوان مثال، https://catalogofbias.org/biases، که یک فهرست جامع نیست).”
بنابراین، ما به طور مستقیم به سوگیری میپردازیم تا بحثها و روشهای ملموسی را ترویج دهیم که اخلاق را در رباتیک، هوش مصنوعی، پردازش زبان طبیعی و ML ادغام میکنند.
کتاب Mitigating Bias in Machine Learning درسی برای دانشجویان کارشناسی یا کارشناسی ارشد یا کسانی که به دنبال مقدمهای بر ML هستند، ایدهآل است. از آنجایی که تعداد کمی کتاب درسی با کاربردهای عملی ML وجود دارد، این اثر با معرفی موضوع با تأکید بر دیدگاه و پیادهسازیهای دنیای واقعی، این شکاف را پر خواهد کرد.
سازماندهی کتاب Mitigating Bias in Machine Learning
کتاب به گونهای سازماندهی شده است که داستان چگونگی تأثیر منفی سوگیری در ML بر جوامع خاص را روایت کند. کتاب Mitigating Bias in Machine Learning رویکردهای ML و چگونگی ناکامی سوگیری در این ساختارهای دیجیتال برای جوامع خاص، از جمله جوامعی که به لحاظ تاریخی محروم، حاشیهنشین و اقلیت بودهاند، را برجسته میکند، سپس نشان میدهد که چگونه این ناکامیها به بیعدالتی برای این جمعیتها منجر شده است.
هر فصل کتاب Mitigating Bias in Machine Learning به گونهای طراحی شده است که خواننده را وادار به تفکر انتقادی درباره سیستمها و پلتفرمها کند و نشان دهد که چگونه ظلم و نابرابری مقیاسبندی شده است، علاوه بر این، توصیههایی را ارائه میدهد که ممکن است به عنوان یک طرح عملی برای کاهش سوگیریهای شناساییشده در آنجا عمل کند.
چیدمان کتاب Mitigating Bias in Machine Learning خواننده را به سفری میبرد که با چگونگی بروز نابرابریها در زمینههای مختلف آغاز میشود. سپس کاربردها و جعبهابزارهایی را برجسته میکند که سوگیری را در سیستمهای مبتنی بر متن شناسایی میکنند. سپس به مراقبتهای بهداشتی میپردازیم و اینکه چگونه سوگیری میتواند بر مراقبت و درمان جمعیتهای آسیبپذیر تأثیر بگذارد. در نهایت، عدالت محیطی در ML به مسائل روزمره و اجتنابناپذیر اما پنهان کیفیت زندگی میپردازد.
هر فصل کتاب Mitigating Bias in Machine Learning با یک سؤال مرتبط با یک حوزه از ML آغاز میشود که به آن پرداخته خواهد شد. سپس اهداف یادگیریای را برجسته میکند که باید در مسیر پاسخ به سؤال انگیزشی به دست آیند. در ادامه، یک مرور کلی ارائه میشود که ممکن است شامل برجسته کردن اصطلاحات کلیدی مورد بحث یا تعریفشده در فصل باشد. فصل پاسخ سؤال را در بافت کاربردهای عملی ارائه میدهد که ممکن است شامل مثالها، مطالعات کاربر یا مورد، آزمایشها یا شبیهسازیها باشد.
در نهایت، خلاصهای از چگونگی دستیابی به اهداف یادگیری و همچنین توصیههایی برای ترویج اخلاق و/یا کاهش سوگیری در زمینه مربوطه ارائه خواهد شد. سؤالات، مسائل و فعالیتهای پایان فصل، خواننده را قادر میسازد تا غنای این حوزه را درک کند و تئوری را از طریق یادگیری فعال بفهمد. امیدواریم که یاد بگیرید و لذت ببرید.
مضامین فصول کتاب Mitigating Bias in Machine Learning
فهرست زیر فصول را بر اساس مضامین اصلی خلاصه میکند.
سوگیری و اخلاق در یادگیری ماشین
- “فراتر از سوگیری الگوریتمی” اثر آنا کارولینا دا هورا و سیلواندرو پریرا پدروزو به این سؤال پاسخ میدهد: “عدالت الگوریتمی چیست و چرا باید در مورد آن صحبت کنیم؟”
- برووک اودل، کاترین فینلی، ویکتوریا لانگفیلد و رودریگو سرائو در فصل خود با طرح این سؤال، زمینه را برای متن فراهم میکنند: “برای یک الگوریتم یادگیری ماشین، اخلاقی بودن به چه معناست؟”
- “کجا و چگونه میتوانیم دیدگاههای مختلف را در طراحی یادگیری ماشین بگنجانیم؟” توسط باویشا کالیان، آنتونی دیاز و مارا کاراسکیلو پاسخ داده میشود.
مدلهای زبان بزرگ و سوگیری
- جزمیا هنری در “مبارزه با سوگیری در مدلهای زبان بزرگ” به این سؤال میپردازد: “چگونه سوگیری در مدلهای زبان بزرگ خود را نشان میدهد و چگونه میتوانیم با آن مبارزه کنیم؟”
سوگیری در چارچوبها/عدالت در سیستمها
- در “مطالعه موردی مقایسهای جعبهابزارهای عدالت”، کیت مکنامارا جونیور، کیانا علیخادمی، بریانا ریچاردسون، اما دروبینا و خوان ای. گیلبرت به این سؤال پاسخ میدهند: “جعبهابزارهای عدالت در تشخیص و کاهش سوگیری و تضمین عدالت در یادگیری ماشین چقدر مؤثر هستند؟ و کاستیهای آنها چیست؟”
سوگیری در چارچوبها/عدالت در نرمافزار
- “چگونه میتوانید سوگیری را در سیستمهای تشخیص گفتار نفرتانگیز کاهش دهید؟” سؤالی است که زهرا الصالحی در “کاهش سوگیری در تشخیص گفتار نفرتانگیز” به آن پاسخ میدهد.
مراقبتهای بهداشتی
- در “به سوی تصحیح سوگیری یادگیری ماشین در تشخیصهای مراقبت بهداشتی: مطالعه موردی تشخیص سرطان پوست در گروههای قومی متنوع”، جنافر رابرتز و لورا مونتویا به این سؤال پاسخ میدهند: “چگونه میتوانیم سوگیری در مراقبتهای بهداشتی در یادگیری ماشین را کاهش دهیم؟”
- آیزاک کی. گنگ در فصل “تشخیص سوگیری در مدلهای یادگیری ماشین و هوش مصنوعی پزشکی” میپرسد: “چگونه میتوانید سوگیری را در سیستمهای یادگیری ماشین و هوش مصنوعی پزشکی کاهش دهید؟”
- یک نگرانی در حوزه مراقبتهای بهداشتی این است که “چرا کمنظریهپردازی مسائل اخلاقی را در هوش مصنوعی/یادگیری ماشین سلامت در میان جمعیتهای متنوع تشدید میکند؟”، و این موضوع توسط فی کاب پیتون، ژوان لوئی و لینت یارگر بررسی خواهد شد.
سیستمهای اجتماعی-بومشناختی
- آیوشی آگاروال، تایرک شپارد، تما مونرو-وایت و جو اف. بوزمان سوم در “اعمال پروتکل ولز-دوبوا برای دستیابی به برابری سیستمی در سیستمهای اجتماعی-بومشناختی” به این سؤال میپردازند: “هنگام تلاش برای دستیابی به نتایج عادلانه در سیستمهای اجتماعی و بومشناختی (اجتماعی-بومشناختی) باید از چه ابزارها و مفاهیم جامعی استفاده کنید؟”
پردازش زبان طبیعی
-
“چگونه سوگیریهای سیستمی در پردازش زبان طبیعی پدیدار میشوند، چه تأثیرات اجتماعی ایجاد میکنند و چگونه میتوانیم به این سوگیریها بپردازیم؟” توسط اولگا اسکریونر در “رونمایی از سوگیریهای سیستمی ناخواسته در پردازش زبان طبیعی” پاسخ داده میشود.
سرفصلهای کتاب Mitigating Bias in Machine Learning:
- Cover
- Title Page
- Copyright Page
- Dedication
- Contents
- Preface
- Acknowledgments
- 1 Beyond Algorithmic Bias
- 2 Going Beyond the Technical: Exploring Ethical and Societal Implications of Machine Learning
- 3 Social Media and Health Information Dissemination
- 4 Comparative Case Study of Fairness Toolkits
- 5 Bias Mitigation in Hate Speech Detection
- 6 Unveiling Unintended Systematic Biases in Natural Language Processing
- 7 Combating Bias in Large Language Models
- 8 Recognizing Bias in Medical Machine Learning and AI Models
- 9 Toward Rectification of Machine Learning Bias in Health Care Diagnostics: A Case Study of Detecting Skin Cancer Across Diverse Ethnic Groups
- 10 Applying the Wells-DuBois Protocol for Achieving Systemic Equity in Socioecological Systems
- 11 Community Engagement for Machine Learning
جهت دانلود کتاب Mitigating Bias in Machine Learning میتوانید پس از پرداخت، دریافت کنید.
دیدگاهها
هیچ دیدگاهی برای این محصول نوشته نشده است.