کتاب Responsible AI in the Enterprise: Practical AI Risk Management for Explainable, Auditable, and Safe Models with Hyperscalers and Azure OpenAI (هوش مصنوعی مسئول در سازمان: مدیریت ریسک هوش مصنوعی عملی برای مدلهای قابل توضیح، قابل کنترل و ایمن با مقیاسکنندههای فرامقیاس و Azure OpenAI) با هدف توضیح مدلهای هوش مصنوعی برای استفاده در سازمانها با استفاده از Azure OpenAI به چاپ رسیده است.
در ادامه مقدمهای از کتاب Responsible AI in the Enterprise را از زبان نویسنده شرح خواهیم داد.
مقدمهای بر کتاب Responsible AI in the Enterprise:
ما بهعنوان دانشمند داده، بهطور مستقیم شاهد بودهایم که چگونه مدلهای هوش مصنوعی نقش مهمی در جنبههای مختلف زندگی ما بازی میکنند.
با این حال، همانطور که کلیشه میگوید، با این قدرت، مسئولیت اطمینان از اینکه این سیستم های تصمیم گیری منصفانه، شفاف و قابل اعتماد هستند، وجود دارد. به همین دلیل من به همراه همکارم تصمیم گرفتیم این کتاب را بنویسم.
ما مشاهده کردهایم که بسیاری از شرکتها در مورد حاکمیت و حسابرسی سیستمهای یادگیری ماشین با چالشهایی روبرو هستند. یکی از مسائل مهم تعصب است که میتواند منجر به نتایج ناعادلانه شود.
مسئله دیگر عدم تفسیرپذیری است که تشخیص درست عملکرد مدلها را دشوار میکند. در نهایت، توضیح تصمیمات هوش مصنوعی برای انسان ها چالش برانگیز است که میتواند منجر به عدم اعتماد به این سیستم ها شود.
چارچوبها و استانداردهای کنترلی (در قالب مقررات دولتی، استانداردهای ISO و موارد مشابه) برای هوش مصنوعی که تضمین میکند عادلانه، اخلاقی و متناسب با هدف کاربرد آن است، هنوز در شکل اولیه خود هستند و تنها در داخل در دسترس قرار گرفتهاند.
چند سال گذشته با توجه به گسترش روزافزون هوش مصنوعی در زندگی ما، میتوان این موضوع را شگفتآور دانست. با انتشار و استفاده از این چارچوبها، تضمین هوش مصنوعی به بلوغ میرسد و امیدواریم مانند هوش مصنوعی فراگیر شود.
تا آن زمان، ما امیدواریم که این کتاب شکافهایی را که متخصصان داده در سازمان با آن مواجه هستند پر کند، زیرا به دنبال اطمینان از اینکه هوش مصنوعی که توسعه میدهند و استفاده میکنند منصفانه، اخلاقی و متناسب با هدف است.
با در نظر گرفتن این چالشها و اهداف، ما قصد داشتیم کتابی بنویسیم که با معیارهای زیر مطابقت داشته باشد:
- اطلاعاتی را که قبلاً به طور گسترده در دسترس است، تکرار نمیکند
- برای کارشناسان تجاری و موضوعی که علاقه مند به یادگیری در مورد هوش مصنوعی قابل توضیح و تفسیر هستند در دسترس است.
- راهنماییهای عملی، از جمله چکلیستها و منابع، برای کمک به شرکتها برای شروع با هوش مصنوعی قابل توضیح ارائه میدهد.
ما زبان فنی را به حداقل رسانده و درک کتاب را آسان کردهایم تا بتوان از آن به عنوان منبعی برای حرفهایها در تمام سطوح تجربه استفاده کرد.
همانطور که هوش مصنوعی به تکامل خود ادامه میدهد، برای شرکتها مهم است که درک روشنی از نحوه کار این سیستمها داشته باشند و بتوانند گزارههای ارزش الگوریتمی خود را توضیح دهند. این موضوع فقط رعایت مقررات نیست، بلکه در مورد اعتمادسازی با مشتریان و ذینفعان نیز هست.
کتاب Responsible AI in the Enterprise برای ذینفعان تجاری، رهبران فنی، تنظیمکنندهها و هر کسی که علاقهمند به استفاده مسئولانه از هوش مصنوعی است.
ما طیفی از موضوعات را پوشش میدهیم، از جمله هوش مصنوعی قابل توضیح، سوگیری الگوریتمی، اعتماد به سیستمهای هوش مصنوعی، و استفاده از ابزارهای مختلف برای ارزیابی عادلانه و کاهش تعصب. ما همچنین نقش نظارت و حاکمیت مدل را در حصول اطمینان از قابلیت اطمینان و شفافیت سیستمهای هوش مصنوعی مورد بحث قرار میدهیم.
با توجه به اهمیت فزاینده شیوههای هوش مصنوعی مسئولانه، این کتاب به ویژه در پرتو استانداردها و دستورالعملهای هوش مصنوعی، مانند GDPR اتحادیه اروپا، ارزیابی تأثیر الگوریتمی مؤسسه AI Now، و مشارکت در اصول هوش مصنوعی برای هوش مصنوعی مسئول، مرتبط است.
امید ما این است که با بررسی این مسائل حیاتی و به اشتراک گذاری بهترین شیوهها، بتوانیم به شما در درک اهمیت هوش مصنوعی مسئول کمک کنیم و الهام بخش شما باشیم که برای اطمینان از اینکه هوش مصنوعی برای بهبود همه استفاده میشود، اقدام کنید.
بررسی چشمانداز هوش مصنوعی و تعصب قابل توضیح: فصلهای 1 و 2 مقدمهای بر هوش مصنوعی قابل توضیح (XAI) را ارائه میکنند که یک جزء حیاتی در توسعه و استقرار مدلهای هوش مصنوعی است. این بخش یک نمای کلی از چشم انداز XAI، اهمیت آن و چالشهایی که ایجاد میکند ارائه میدهد.
1. این بخش با آغازگر XAI و هوش مصنوعی اخلاقی برای مدیریت ریسک مدل شروع میشود و تعاریف و مفاهیمی را ارائه میکند که برای بقیه بخش باید درک کنید.
در مرحله بعد، چندین داستان دلخراش از خراب شدن هوش مصنوعی به شما ارائه میشود که خطرات هوش مصنوعی غیرقابل توضیح و مغرضانه را برجسته میکند. این داستانها اهمیت XAI و نیاز به رویکردهای مختلف برای رسیدگی به مشکلات مشابه را نشان میدهند.
فصل 2، الگوریتمهای وحشیشده، نگاهی دقیقتر به سوگیری و تأثیر آن بر مدلهای هوش مصنوعی دارد. این فصل انواع مختلف سوگیری را که میتوان در مدلها معرفی کرد و تأثیر آنها بر نتایج تولید شده را بررسی میکند.
در پایان این مقدمه، درک عمیقتری از XAI و چالشهایی که ایجاد میکند، و همچنین قدردانی بیشتری از اهمیت هوش مصنوعی اخلاقی و نیاز به پرداختن به سوگیری در مدلهای هوش مصنوعی خواهید داشت.
2. کاوش قابلیت توضیح، مشاهده پذیری ریسک، و حاکمیت مدل: فصلهای 3 تا 6 به موضوعات توضیح پذیری، مشاهده پذیری ریسک و حاکمیت مدل، به ویژه در زمینه سکوهای رایانش ابری مانند Microsoft Azure، خدمات وب آمازون، و Google Cloud میپردازند.
چندین حوزه مهم از جمله رویکردهای تفسیرپذیری مدل، اندازهگیری و نظارت بر جابجایی مدل، استانداردهای ممیزی و انطباق، کیت راهاندازی سازمانی برای عدالت، مسئولیتپذیری و شفافیت، و همچنین حذف سوگیری، استحکام مدل، و حملات خصمانه را پوشش میدهد. این موضوعات در چندین فصل به تفصیل مورد بحث قرار گرفته اند تا درک جامعی از این مفاهیم مهم در اختیار شما قرار دهند.
3. هوش مصنوعی قابل توضیح کاربردی: سناریوهای دنیای واقعی و مطالعات موردی: فصلهای 7 تا 10 بخش آخر به کاربرد عملی هوش مصنوعی قابل توضیح و چالشهای استقرار مدلهای قابل اعتماد و قابل تفسیر در شرکت میپردازد. مطالعات موردی در دنیای واقعی و سناریوهای استفاده برای نشان دادن نیاز به یادگیری ماشینی ایمن، اخلاقی و قابل توضیح ارائه شدهاند و راهحلهایی برای مشکلاتی که در حوزههای مختلف با آن مواجه میشوند ارائه میکنند.
فصلهای این بخش، نمونههای کد، جعبهابزارها و راهحلهای ارائهشده توسط پلتفرمهای ابری مانند AWS، GCP، و Azure، چارچوب FairLearn مایکروسافت، و مدلهای زبان بزرگ OpenAI Azure (LLM) مانند GPT-3، GPT-4 و ChatGPT.
موضوعات خاصی که در این بخش تحت پوشش قرار میگیرند شامل ابزارهای تفسیرپذیری، معیارهای انصاف، عدالت در سیستمهای هوش مصنوعی و استراتژیهای کاهش تعصب است. همچنین پیادهسازی GPT3 را در دنیای واقعی، همراه با توصیهها و دستورالعملهایی برای استفاده از LLM به شیوهای ایمن و مسئولانه بررسی خواهیم کرد.
کتاب Responsible AI in the Enterprise برای چه کسی است؟
همانطور که به کار با شرکتها ادامه میدهیم، به آنها مشاوره میدهیم و آنها را راهنمایی میکنیم تا بتوانند خود را برای تبدیل شدن به دادهمحور تغییر دهند – با تولید بینشهای عملی، مدلهای یادگیری ماشینی و هوش مصنوعی در مقیاس خود، از نگرانیها و سؤالات آنها در مورد تضمین هوش مصنوعی آنها آگاه هستیم.
کتاب Responsible AI in the Enterprise برای طیف وسیعی از متخصصان در زمینه هوش مصنوعی سازمانی و یادگیری ماشین نوشته شده است. این شامل دانشمندان داده، مهندسین یادگیری ماشین، متخصصان هوش مصنوعی، متخصصان فناوری اطلاعات، سهامداران تجاری، مهندسین نرمافزار، اخلاقدانان هوش مصنوعی و در نهایت، رهبران تغییرات سازمانی میشود.
اینها افرادی هستند که در شرکت کار میکنند تا هم بر تغییرات مورد نیاز برای داده محور شدن تأثیر بگذارند و هم برای توسعه و ارائه مدلهای هوش مصنوعی در مقیاس موفقیت آمیز.
کتاب Responsible AI in the Enterprise طیف گستردهای از موضوعات، از XAI و ملاحظات اخلاقی گرفته تا استانداردهای حاکمیت و انطباق مدل را پوشش میدهد و راهنماییهای عملی در مورد استفاده از ابزارهایی مانند مقیاسکنندههای بزرگ، ابزارهای منبع باز و مایکروسافت Fairlearn ارائه میکند.
این یک منبع ارزشمند برای کسانی است که علاقه مند به درک آخرین پیشرفتها در حاکمیت هوش مصنوعی، از جمله نقش تابلوهای هوش مصنوعی داخلی، اهمیت حاکمیت دادهها، و آخرین استانداردها و مقررات صنعت هستند.
کتاب Responsible AI in the Enterprise همچنین برای متخصصان هوش مصنوعی در صنایع مختلف، از جمله مراقبتهای بهداشتی، خدمات مشتری، و امور مالی، با استفاده از هوش مصنوعی محاوره ای و تجزیه و تحلیل پیش بینی، مرتبط است.
چه یک ذینفع کسبوکار مسئول تصمیمگیری در مورد پذیرش هوش مصنوعی باشید، چه یک متخصص اخلاق هوش مصنوعی که به پیامدهای اخلاقی هوش مصنوعی توجه دارد یا یک متخصص هوش مصنوعی که مسئول ساخت و استقرار مدلها است، این کتاب بینشهای ارزشمند و راهنماییهای عملی را در مورد ایجاد هوش مصنوعی مسئول و شفاف ارائه میکند. مدلها.
فصلهای ضروری متناسب با موقعیتهای متمایز مرتبط با هوش مصنوعی
برای متخصصان اخلاق هوش مصنوعی، حسابرسان و پرسنل انطباق، مرتبطترین فصلها به شرح زیر است:
فصل 1، آغازگر هوش مصنوعی قابل توضیح و اخلاقی
فصل 5، مدل حاکمیت، حسابرسی و انطباق
فصل 6، کیت آغازگر سازمانی برای انصاف، مسئولیت پذیری و شفافیت
فصل 10، مدلهای بنیادی و Azure OpenAI
این فصلها بر هوش مصنوعی قابل توضیح و اخلاقی، حاکمیت مدل، استانداردهای انطباق، اجرای هوش مصنوعی مسئول و چالشهای مرتبط با مدلهای زبان بزرگ تمرکز دارند.
مدیران و ذینفعان کسب و کار فصلهای زیر را بیشتر مرتبط میدانند:
فصل 2، الگوریتمهایی که از کنترل خارج شدهاند
فصل 5، مدل حاکمیت، حسابرسی و انطباق
فصل 6، کیت آغازگر سازمانی برای انصاف، مسئولیت پذیری و شفافیت
این فصلها تأثیر سوگیری در هوش مصنوعی، اهمیت شفافیت و مسئولیتپذیری در تصمیمگیری مبتنی بر هوش مصنوعی، و جنبههای عملی اجرای حکمرانی هوش مصنوعی در یک سازمان را پوشش میدهند.
دانشمندان داده و مهندسان یادگیری ماشین کل کتاب را بسیار مفید خواهند یافت، اما مرتبط ترین فصلها برای دانشمندان داده و مهندسان یادگیری ماشین به شرح زیر است:
فصل 1، آغازگر هوش مصنوعی قابل توضیح و اخلاقی
فصل 3، باز کردن جعبه سیاه الگوریتمی
فصل 4، ML قوی – نظارت و مدیریت
فصل 7، ابزارهای تفسیرپذیری و معیارهای انصاف – AWS، GCP، Azure، و AIF 360
فصل 8، عدالت در سیستمهای هوش مصنوعی با مایکروسافت Fairlearn
فصل 9، ارزیابی عادلانه و کاهش تعصب با Fairlearn و جعبه ابزار هوش مصنوعی مسئول
این فصول اطلاعات ارزشمندی در مورد هوش مصنوعی قابل توضیح و اخلاقی، تفسیرپذیری مدل، نظارت بر عملکرد مدل، و کاربردهای عملی تکنیکهای کاهش انصاف و تعصب ارائه میکنند.
در حالی که این کتاب مفاهیم سطح پیشرفته را پوشش میدهد، به سبکی قابل دسترس نوشته شده است و درک پایه ای از هوش مصنوعی و مفاهیم یادگیری ماشین را فرض میکند. با این حال، کسانی که تجربه کمتری دارند ممکن است نیاز به تلاش بیشتری برای درک کامل مطالب داشته باشند.
آنچه کتاب Responsible AI in the Enterprise پوشش میدهد:
این کتاب راهنمای جامعی برای مدیریت هوش مصنوعی مسئول و مدل یادگیری ماشین است. طیف وسیعی از موضوعات از جمله XAI، هوش مصنوعی اخلاقی، تعصب در سیستمهای هوش مصنوعی، تفسیرپذیری مدل، حاکمیت و انطباق مدل، انصاف و مسئولیتپذیری در هوش مصنوعی، حاکمیت داده، و آموزش اخلاقی هوش مصنوعی و ارتقاء مهارت را پوشش میدهد.
کتاب Responsible AI in the Enterprise بینش عملی در مورد استفاده از ابزارهایی مانند Microsoft FairLearn برای ارزیابی انصاف و کاهش تعصب ارائه میدهد. برای دانشمندان داده، مهندسان یادگیری ماشین، متخصصان هوش مصنوعی، متخصصان فناوری اطلاعات، ذینفعان کسب و کار، و متخصصان اخلاق هوش مصنوعی که مسئول پیادهسازی مدلهای هوش مصنوعی در سازمانهای خود هستند، خواندن آن ضروری است.
محتوا به سبکی قابل درک ارائه شده است که آن را به منبعی ارزشمند برای متخصصان در تمام سطوح تخصص تبدیل میکند.
فصل 1 کتاب Responsible AI in the Enterprise، آغازگر هوش مصنوعی قابل توضیح و اخلاقی، درک جامعی از مفاهیم کلیدی مرتبط با هوش مصنوعی قابل توضیح و تفسیر را ارائه میدهد. شما با اصطلاحات یادگیری ماشینی ایمن، اخلاقی، قابل توضیح، قوی، شفاف، قابل ممیزی و تفسیرپذیر آشنا خواهید شد.
این فصل از کتاب Responsible AI in the Enterprise به عنوان پایه ای محکم برای تازه کارها و همچنین مرجعی برای متخصصان باتجربه یادگیری ماشین است. با بحث در مورد چرخه عمر توسعه یادگیری ماشین شروع میشود و طبقهبندی هوش مصنوعی قابل تفسیر و قابلیت مشاهده ریسک مدل را ترسیم میکند و یک نمای کلی از این زمینه ارائه میدهد.
فصل 2 کتاب Responsible AI in the Enterprise، الگوریتمها وحشیشدهاند، محدودیتها و چالشهای فعلی هوش مصنوعی و اینکه چگونه میتواند به تقویت تعصبهای موجود کمک کند را پوشش میدهد.
علیرغم این چالشها، این فصل از کتاب Responsible AI in the Enterprise استفاده روزافزون از هوش مصنوعی را برجسته میکند و مروری بر کاربردهای مختلف آن، از جمله داستانهای ترسناک هوش مصنوعی و موارد تبعیض، سوگیری، اطلاعات نادرست، جعلی، سیستمهای اعتبار اجتماعی، نظارت و کلاهبرداری ارائه میدهد.
این فصل از کتاب Responsible AI in the Enterprise به عنوان بستری برای بحث عمل میکند و کاربردهای مختلف هوش مصنوعی را گرد هم میآورد و فضایی را برای شما فراهم میکند تا در مورد پیامدهای بالقوه استفاده از آن فکر کنید. در پایان این فصل، شما درک عمیق تری از ماهیت پیچیده و ظریف هوش مصنوعی و اهمیت در نظر گرفتن پیامدهای اخلاقی و اجتماعی آن خواهید داشت.
فصل 3، باز کردن جعبه سیاه الگوریتمی، به شما در مورد زمینه XAI و چالشهای آن، از جمله عدم رسمیت و تعاریف ضعیف میآموزد.
این فصل از کتاب Responsible AI in the Enterprise مروری بر چهار دسته اصلی از روشهای تفسیرپذیری ارائه میدهد که امکان مقایسه چند منظری این روشها را فراهم میکند.
هدف این فصل توضیح مدلهای جعبه سیاه و ایجاد مدلهای جعبه سفید، اطمینان از انصاف و محدود کردن تبعیض، و تحلیل حساسیت پیشبینیهای مدل است.
این فصل از کتاب Responsible AI in the Enterprise همچنین نحوه توضیح مدلهای جعبه سیاه را با مدلهای جعبه سفید نشان میدهد و درک درستی از گزاره ارزش تفاضلی و رویکردهای مورد استفاده در هر یک از این کتابخانهها ارائه میدهد.
در پایان این فصل، شما درک جامعی از چالشها و فرصتها در زمینه XAI و روشهای مختلف تفسیرپذیری موجود برای ایجاد مدلهای یادگیری ماشینی شفافتر و قابل توضیحتر خواهید داشت.
فصل 4، ML مستحکم – نظارت و مدیریت، در مورد اهمیت اعتبار سنجی و نظارت مداوم به عنوان بخشی جدایی ناپذیر از چرخه عمر توسعه مدل صحبت میکند. این فصل بر فرآیند نظارت بر عملکرد مدل متمرکز است، که با کمی کردن تخریب یک مدل شروع میشود.
شما در مورد شناسایی پارامترها برای ردیابی عملکرد مدل و تعیین آستانههایی که باید هشدار ایجاد کنند، یاد خواهید گرفت.
این فصل از کتاب Responsible AI in the Enterprise بر اجزای اساسی نظارت بر عملکرد مدل، از جمله حفظ هدف تجاری یک مدل و تشخیص انحرافات در جهت آن در طول و پس از استقرار، تمرکز دارد. شما یاد خواهید گرفت که چگونه از تکنیکهای مختلف به عنوان بخشی از نظارت بر مدل استفاده کنید و فرآیندی برای شناسایی، هشدار و رسیدگی به دریفتها بسازید.
هدف این فصل از کتاب Responsible AI in the Enterprise نشان دادن اهمیت نظارت خودکار یک مدل در حال اجرا، ارائه اقدامات جامع برای نظارت بر جابجایی دادهها، پایش رانش مفهومی مدل، نظارت بر عملکرد آماری، نظارت بر عدالت اخلاقی، شبیهسازی سناریوهای تجاری، تجزیه و تحلیل چه میشود و مقایسه تولید است. پارامترهایی مانند اجرای مدل موازی و معیارهای سفارشی.
در پایان این فصل از کتاب Responsible AI in the Enterprise، شما درک جامعی از اهمیت اعتبارسنجی و نظارت مداوم در چرخه عمر توسعه مدل و تکنیکهای تشخیص و رسیدگی به انحرافات در عملکرد یک مدل خواهید داشت.
فصل 5 کتاب Responsible AI in the Enterprise، مدل حاکمیت، حسابرسی و انطباق، به بررسی قدرت پیشبینی الگوریتمهای یادگیری ماشین و توانایی آنها در دریافت مقادیر زیادی داده از منابع مختلف میپردازد. این فصل بر جنبه حاکمیتی این مدلها تمرکز دارد، زیرا نگرانیهای فزایندهای در مورد عدم شفافیت در فرآیندهای تصمیمگیری مبتنی بر هوش مصنوعی وجود دارد.
شما ابتکارات نظارتی مختلف، از جمله ابتکارات کمیسیون خدمات مالی ایالات متحده و کمیسیون تجارت فدرال ایالات متحده، در مورد هوش مصنوعی و یادگیری ماشین را بررسی خواهید کرد.
این فصل از کتاب Responsible AI in the Enterprise استانداردهای مختلف حسابرسی و انطباق و مقررات به سرعت در حال تحول هوش مصنوعی را با توجه به تأثیر بالقوه آن بر زندگی، معیشت، مراقبتهای بهداشتی و سیستمهای مالی مردم پوشش میدهد.
شما اهمیت قابلیت ممیزی را در مدلهای هوش مصنوعی با قابلیت ردیابی تولید، از جمله در دسترس بودن عکسهای فوری غیرقابل تغییر مدلها برای قابلیت ممیزی بلندمدت، همراه با کد منبع، ابرداده و سایر مصنوعات مرتبط، درک خواهید کرد.
در پایان این فصل از کتاب Responsible AI in the Enterprise، شما درک جامعی از جنبه حاکمیتی مدلهای یادگیری ماشین و اهمیت تضمین شفافیت و مسئولیتپذیری در فرآیندهای تصمیمگیری مبتنی بر هوش مصنوعی خواهید داشت.
فصل 6 کتاب Responsible AI in the Enterprise، کیت راهانداز سازمانی برای عدالت، مسئولیتپذیری و شفافیت، اهمیت اجرای اصول اخلاقی هوش مصنوعی را در زمانی که سازمانها هوش مصنوعی را اتخاذ میکنند، نشان میدهد.
این فصل از کتاب Responsible AI in the Enterprise یک رویکرد عملی برای استفاده از هوش مصنوعی و ابزارهای مناسب برای اطمینان از عدالت هوش مصنوعی، کاهش تعصب، توضیح پذیری، رعایت حریم خصوصی و حفظ حریم خصوصی در یک محیط سازمانی ارائه میدهد.
شما درک خواهید کرد که چگونه اعتماد، انصاف، و قابل درک بودن، کلیدهای هوش مصنوعی مسئول و پاسخگو هستند و چگونه میتوان در یک محیط سازمانی با ابزارهای پشتیبانی، به حکمرانی هوش مصنوعی دست یافت.
در این فصل از کتاب Responsible AI in the Enterprise، پیادهسازی تعصب و انصاف، قابلیت توضیح، اعتماد و شفافیت، و رعایت حریم خصوصی و مقررات در سازمان ارائه میشود.
همچنین انواع ابزارهای موجود برای XAI را بررسی خواهید کرد، از جمله TensorBoard Projector، What-If Tool، Aequitas، AI Fairness 360، AI Explainability 360، ELI5، توضیحدهنده داشبورد، Fairlearn، تفسیر، Scikit-Fairness، InterpretML، tf-explain، هوش مصنوعی XAI، AWS Clarify و Vertex Explainable.
در پایان این فصل از کتاب Responsible AI in the Enterprise، شما درک جامعی از نحوه استفاده از ابزارهای حاکمیت هوش مصنوعی برای اطمینان از استفاده مسئولانه و حساب شده از هوش مصنوعی در یک محیط سازمانی خواهید داشت.
فصل 7 کتاب Responsible AI in the Enterprise، ابزارهای تفسیرپذیری و معیارهای انصاف – AWS، GCP، Azure، و AIF 360، استفاده از ابزارهای تفسیرپذیری و پیشنهادات ارائهدهندگان هوش مصنوعی ابری را برای شناسایی و محدود کردن سوگیری و توضیح پیشبینیها در مدلهای یادگیری ماشین نشان میدهد.
این فصل از کتاب Responsible AI in the Enterprise مروری بر بستههای ابزار تفسیرپذیر منبع باز و ابری موجود، از جمله AIF360 IBM، Amazon SageMaker’s Clarify، Vertex Explainable AI Google و Model Interpretability در یادگیری ماشینی Azure ارائه میکند.
شما درک عمیقتری از انواع ابزارهای موجود برای هوش مصنوعی قابل توضیح و مزایایی که آنها از نظر دید بیشتر در دادهها و مدلهای آموزشی ارائه میدهند، به دست خواهید آورد.
در پایان این فصل از کتاب Responsible AI in the Enterprise، شما درک جامعی از نقش بستههای ابزار تفسیرپذیری در تضمین عدالت و شفافیت مدلهای یادگیری ماشین خواهید داشت.
فصل 8 کتاب Responsible AI in the Enterprise، عدالت در سیستمهای هوش مصنوعی با مایکروسافت Fairlearn، درباره مایکروسافت FairLearn، یک جعبه ابزار منصفانه منبع باز برای هوش مصنوعی صحبت میکند.
این فصل از کتاب Responsible AI in the Enterprise مروری بر جعبه ابزار و قابلیتهای آن، از جمله استفاده از آن به عنوان راهنمای دانشمندان داده برای درک بهتر مسائل مربوط به عدالت در هوش مصنوعی، ارائه میدهد.
شما در مورد دو مؤلفه Fairlearn Python، از جمله معیارهایی برای ارزیابی زمانی که گروهها تحت تأثیر منفی یک مدل قرار میگیرند و معیارهایی برای مقایسه چندین مدل، آشنا خواهید شد.
این فصل از کتاب Responsible AI in the Enterprise ارزیابی انصاف را با استفاده از آسیب تخصیص و آسیب کیفیت خدمات، و همچنین کاهش ناعادلانه و رویکردهای بهبود یک مدل ناعادلانه را پوشش خواهد داد. در پایان این فصل، شما درک جامعی از مایکروسافت Fairlearn و نقش آن در تضمین استفاده منصفانه و اخلاقی از مدلهای یادگیری ماشین خواهید داشت.
فصل 9 کتاب Responsible AI in the Enterprise، ارزیابی عادلانه و کاهش تعصب با Fairlearn و جعبه ابزار هوش مصنوعی مسئول، کاربرد عملی Fairlearn را در سناریوهای دنیای واقعی بررسی میکند.
این فصل از کتاب Responsible AI in the Enterprise ارزیابی معیارها و تکنیکهای مرتبط با انصاف را برای کاهش تعصب و نابرابری با استفاده از Fairlearn پوشش میدهد.
همچنین در مورد جعبه ابزار هوش مصنوعی مسئولیتپذیر، که مجموعه ای از رابطهای کاربری و کتابخانههای کاوش و ارزیابی دادهها و مدلها را برای درک بهتر سیستمهای هوش مصنوعی ارائه میدهد، آشنا خواهید شد.
این فصل از کتاب Responsible AI in the Enterprise داشبورد هوش مصنوعی مسئول، داشبورد تجزیه و تحلیل خطا، داشبورد تفسیرپذیری و داشبورد انصاف را معرفی میکند و اینکه چگونه میتوان از آنها برای شناسایی خطاهای مدل، تشخیص چرایی وقوع آن خطاها، درک پیشبینیهای مدل و ارزیابی عادلانه بودن مدل استفاده کرد. در پایان این فصل، درک جامعی از نحوه استفاده از جعبه ابزار مسئولیتپذیر هوش مصنوعی و Fairlearn برای اطمینان از استفاده منصفانه و اخلاقی از مدلهای یادگیری ماشین در کار خود خواهید داشت.
فصل 10 کتاب Responsible AI in the Enterprise، مدلهای بنیادی و Azure OpenAI، موارد استفاده عملی از حاکمیت را در مورد LLM نشان میدهد – در این مورد، پیشنهادات API OpenAI و Azure OpenAI.
این فصل اجرای LLM ها، مانند GPT-3 را پوشش میدهد، که میتواند برای انواع موارد استفاده تجاری استفاده شود، و چالشهای مرتبط با LLM های حاکم، مانند حریم خصوصی و امنیت دادهها را بررسی میکند.
در حالی که این مدلها میتوانند عملکرد برنامههای کاربردی سازمانی را افزایش دهند، از نظر حاکمیت نیز چالشهای مهمی را ایجاد میکنند.
این فصل از کتاب Responsible AI in the Enterprise بر اهمیت حکمرانی هوش مصنوعی برای استفاده اخلاقی و مسئولانه از LLMها و نیاز به تکنیکهای اصلاح سوگیری برای اطمینان از منصفانه و بیطرفانه بودن راهحلهای هوش مصنوعی تاکید میکند.
علاوه بر این، ما در مورد حریم خصوصی دادهها و اقدامات امنیتی ارائه شده توسط Azure OpenAI و اهمیت ایجاد چارچوب حاکمیت هوش مصنوعی برای استفاده سازمانی از این ابزارها بحث خواهیم کرد.
سرفصلهای کتاب Responsible AI in the Enterprise:
- Responsible AI in the Enterprise
- Foreword
- Contributors
- About the authors
- About the reviewer
- Preface
- Part 1: Bigot in the Machine – A Primer
- Chapter 1: Explainable and Ethical AI Primer
- Chapter 2: Algorithms Gone Wild
- Part 2: Enterprise Risk Observability Model Governance
- Chapter 3: Opening the Algorithmic Black Box
- Chapter 4: Robust ML – Monitoring and Management
- Chapter 5: Model Governance, Audit, and Compliance
- Chapter 6: Enterprise Starter Kit for Fairness, Accountability, and Transparency
- Part 3: Explainable AI in Action
- Chapter 7: Interpretability Toolkits and Fairness Measures – AWS, GCP, Azure, and AIF 360
- Chapter 8: Fairness in AI Systems with Microsoft Fairlearn
- Chapter 9: Fairness Assessment and Bias Mitigation with Fairlearn and the Responsible AI Toolbox
- Chapter 10: Foundational Models and Azure OpenAI
- Index
- Other Books You May Enjoy
جهت دانلود کتاب Responsible AI in the Enterprise میتوانید پس از پرداخت، دریافت کنید.
دیدگاهها
هیچ دیدگاهی برای این محصول نوشته نشده است.