کتاب Responsible AI in the Enterprise

  • کتاب Responsible AI in the Enterprise
  • قسمت 1 کتاب Responsible AI in the Enterprise
  • قسمت 2 کتاب Responsible AI in the Enterprise
  • قسمت 3 کتاب Responsible AI in the Enterprise
کتاب Responsible AI in the Enterprise

خرید کتاب Responsible AI in the Enterprise:

۲۶,۰۰۰ تومان

  • نسخه کتاب فعلی به زبان لاتین می‌باشد.
  • کتاب به صورت فایل می‌باشد و پس از خرید بلافاصله در دسترس شما قرار می‌گیرد.
  • در صورت هرگونه سؤال با ایمیل و یا شماره پشتیبانی سایت در تماس باشید.

کتاب Responsible AI in the Enterprise: Practical AI Risk Management for Explainable, Auditable, and Safe Models with Hyperscalers and Azure OpenAI (هوش مصنوعی مسئول در سازمان: مدیریت ریسک هوش مصنوعی عملی برای مدل‌های قابل توضیح، قابل کنترل و ایمن با مقیاس‌کننده‌های فرامقیاس و Azure OpenAI) با هدف توضیح مدل‌های هوش مصنوعی برای استفاده در سازمان‌ها با استفاده از Azure OpenAI به چاپ رسیده است.

در ادامه مقدمه‌ای از کتاب Responsible AI in the Enterprise را از زبان نویسنده شرح خواهیم داد.

مقدمه‌ای بر کتاب Responsible AI in the Enterprise:

ما به‌عنوان دانشمند داده، به‌طور مستقیم شاهد بوده‌ایم که چگونه مدل‌های هوش مصنوعی نقش مهمی در جنبه‌های مختلف زندگی ما بازی می‌کنند.

با این حال، همانطور که کلیشه می‌گوید، با این قدرت، مسئولیت اطمینان از اینکه این سیستم های تصمیم گیری منصفانه، شفاف و قابل اعتماد هستند، وجود دارد. به همین دلیل من به همراه همکارم تصمیم گرفتیم این کتاب را بنویسم.

ما مشاهده کرده‌ایم که بسیاری از شرکت‌ها در مورد حاکمیت و حسابرسی سیستم‌های یادگیری ماشین با چالش‌هایی روبرو هستند. یکی از مسائل مهم تعصب است که می‌تواند منجر به نتایج ناعادلانه شود.

مسئله دیگر عدم تفسیرپذیری است که تشخیص درست عملکرد مدل‌ها را دشوار می‌کند. در نهایت، توضیح تصمیمات هوش مصنوعی برای انسان ها چالش برانگیز است که می‌تواند منجر به عدم اعتماد به این سیستم ها شود.

چارچوب‌ها و استانداردهای کنترلی (در قالب مقررات دولتی، استانداردهای ISO و موارد مشابه) برای هوش مصنوعی که تضمین می‌کند عادلانه، اخلاقی و متناسب با هدف کاربرد آن است، هنوز در شکل اولیه خود هستند و تنها در داخل در دسترس قرار گرفته‌اند.

چند سال گذشته با توجه به گسترش روزافزون هوش مصنوعی در زندگی ما، می‌توان این موضوع را شگفت‌آور دانست. با انتشار و استفاده از این چارچوب‌ها، تضمین هوش مصنوعی به بلوغ می‌رسد و امیدواریم مانند هوش مصنوعی فراگیر شود.

تا آن زمان، ما امیدواریم که این کتاب شکاف‌هایی را که متخصصان داده در سازمان با آن مواجه هستند پر کند، زیرا به دنبال اطمینان از اینکه هوش مصنوعی که توسعه می‌دهند و استفاده می‌کنند منصفانه، اخلاقی و متناسب با هدف است.

با در نظر گرفتن این چالش‌ها و اهداف، ما قصد داشتیم کتابی بنویسیم که با معیارهای زیر مطابقت داشته باشد:

  • اطلاعاتی را که قبلاً به طور گسترده در دسترس است، تکرار نمی‌کند
  • برای کارشناسان تجاری و موضوعی که علاقه مند به یادگیری در مورد هوش مصنوعی قابل توضیح و تفسیر هستند در دسترس است.
  • راهنمایی‌های عملی، از جمله چک‌لیست‌ها و منابع، برای کمک به شرکت‌ها برای شروع با هوش مصنوعی قابل توضیح ارائه می‌دهد.

ما زبان فنی را به حداقل رسانده و درک کتاب را آسان کرده‌ایم تا بتوان از آن به عنوان منبعی برای حرفه‌ای‌ها در تمام سطوح تجربه استفاده کرد.

همانطور که هوش مصنوعی به تکامل خود ادامه می‌دهد، برای شرکت‌ها مهم است که درک روشنی از نحوه کار این سیستم‌ها داشته باشند و بتوانند گزاره‌های ارزش الگوریتمی خود را توضیح دهند. این موضوع فقط رعایت مقررات نیست، بلکه در مورد اعتمادسازی با مشتریان و ذینفعان نیز هست.

کتاب Responsible AI in the Enterprise برای ذینفعان تجاری، رهبران فنی، تنظیم‌کننده‌ها و هر کسی که علاقه‌مند به استفاده مسئولانه از هوش مصنوعی است.

ما طیفی از موضوعات را پوشش می‌دهیم، از جمله هوش مصنوعی قابل توضیح، سوگیری الگوریتمی، اعتماد به سیستم‌های هوش مصنوعی، و استفاده از ابزارهای مختلف برای ارزیابی عادلانه و کاهش تعصب. ما همچنین نقش نظارت و حاکمیت مدل را در حصول اطمینان از قابلیت اطمینان و شفافیت سیستم‌های هوش مصنوعی مورد بحث قرار می‌دهیم.

با توجه به اهمیت فزاینده شیوه‌های هوش مصنوعی مسئولانه، این کتاب به ویژه در پرتو استانداردها و دستورالعمل‌های هوش مصنوعی، مانند GDPR اتحادیه اروپا، ارزیابی تأثیر الگوریتمی مؤسسه AI Now، و مشارکت در اصول هوش مصنوعی برای هوش مصنوعی مسئول، مرتبط است.

امید ما این است که با بررسی این مسائل حیاتی و به اشتراک گذاری بهترین شیوه‌ها، بتوانیم به شما در درک اهمیت هوش مصنوعی مسئول کمک کنیم و الهام بخش شما باشیم که برای اطمینان از اینکه هوش مصنوعی برای بهبود همه استفاده می‌شود، اقدام کنید.

بررسی چشم‌انداز هوش مصنوعی و تعصب قابل توضیح: فصل‌های 1 و 2 مقدمه‌ای بر هوش مصنوعی قابل توضیح (XAI) را ارائه می‌کنند که یک جزء حیاتی در توسعه و استقرار مدل‌های هوش مصنوعی است. این بخش یک نمای کلی از چشم انداز XAI، اهمیت آن و چالش‌هایی که ایجاد می‌کند ارائه می‌دهد.

1. این بخش با آغازگر XAI و هوش مصنوعی اخلاقی برای مدیریت ریسک مدل شروع می‌شود و تعاریف و مفاهیمی را ارائه می‌کند که برای بقیه بخش باید درک کنید.

در مرحله بعد، چندین داستان دلخراش از خراب شدن هوش مصنوعی به شما ارائه می‌شود که خطرات هوش مصنوعی غیرقابل توضیح و مغرضانه را برجسته می‌کند. این داستان‌ها اهمیت XAI و نیاز به رویکردهای مختلف برای رسیدگی به مشکلات مشابه را نشان می‌دهند.

فصل 2، الگوریتم‌های وحشی‌شده، نگاهی دقیق‌تر به سوگیری و تأثیر آن بر مدل‌های هوش مصنوعی دارد. این فصل انواع مختلف سوگیری را که می‌توان در مدل‌ها معرفی کرد و تأثیر آن‌ها بر نتایج تولید شده را بررسی می‌کند.

در پایان این مقدمه، درک عمیق‌تری از XAI و چالش‌هایی که ایجاد می‌کند، و همچنین قدردانی بیشتری از اهمیت هوش مصنوعی اخلاقی و نیاز به پرداختن به سوگیری در مدل‌های هوش مصنوعی خواهید داشت.

2. کاوش قابلیت توضیح، مشاهده پذیری ریسک، و حاکمیت مدل: فصل‌های 3 تا 6 به موضوعات توضیح پذیری، مشاهده پذیری ریسک و حاکمیت مدل، به ویژه در زمینه سکوهای رایانش ابری مانند Microsoft Azure، خدمات وب آمازون، و Google Cloud می‌پردازند.

چندین حوزه مهم از جمله رویکردهای تفسیرپذیری مدل، اندازه‌گیری و نظارت بر جابجایی مدل، استانداردهای ممیزی و انطباق، کیت راه‌اندازی سازمانی برای عدالت، مسئولیت‌پذیری و شفافیت، و همچنین حذف سوگیری، استحکام مدل، و حملات خصمانه را پوشش می‌دهد. این موضوعات در چندین فصل به تفصیل مورد بحث قرار گرفته اند تا درک جامعی از این مفاهیم مهم در اختیار شما قرار دهند.

3. هوش مصنوعی قابل توضیح کاربردی: سناریوهای دنیای واقعی و مطالعات موردی: فصل‌های 7 تا 10 بخش آخر به کاربرد عملی هوش مصنوعی قابل توضیح و چالش‌های استقرار مدل‌های قابل اعتماد و قابل تفسیر در شرکت می‌پردازد. مطالعات موردی در دنیای واقعی و سناریوهای استفاده برای نشان دادن نیاز به یادگیری ماشینی ایمن، اخلاقی و قابل توضیح ارائه شده‌اند و راه‌حل‌هایی برای مشکلاتی که در حوزه‌های مختلف با آن مواجه می‌شوند ارائه می‌کنند.

فصل‌های این بخش، نمونه‌های کد، جعبه‌ابزارها و راه‌حل‌های ارائه‌شده توسط پلتفرم‌های ابری مانند AWS، GCP، و Azure، چارچوب FairLearn مایکروسافت، و مدل‌های زبان بزرگ OpenAI Azure (LLM) مانند GPT-3، GPT-4 و ChatGPT.

موضوعات خاصی که در این بخش تحت پوشش قرار می‌گیرند شامل ابزارهای تفسیرپذیری، معیارهای انصاف، عدالت در سیستم‌های هوش مصنوعی و استراتژی‌های کاهش تعصب است. همچنین پیاده‌سازی GPT3 را در دنیای واقعی، همراه با توصیه‌ها و دستورالعمل‌هایی برای استفاده از LLM به شیوه‌ای ایمن و مسئولانه بررسی خواهیم کرد.

کتاب Responsible AI in the Enterprise برای چه کسی است؟

همانطور که به کار با شرکت‌ها ادامه می‌دهیم، به آن‌ها مشاوره می‌دهیم و آن‌ها را راهنمایی می‌کنیم تا بتوانند خود را برای تبدیل شدن به داده‌محور تغییر دهند – با تولید بینش‌های عملی، مدل‌های یادگیری ماشینی و هوش مصنوعی در مقیاس خود، از نگرانی‌ها و سؤالات آن‌ها در مورد تضمین هوش مصنوعی آن‌ها آگاه هستیم.

کتاب Responsible AI in the Enterprise برای طیف وسیعی از متخصصان در زمینه هوش مصنوعی سازمانی و یادگیری ماشین نوشته شده است. این شامل دانشمندان داده، مهندسین یادگیری ماشین، متخصصان هوش مصنوعی، متخصصان فناوری اطلاعات، سهامداران تجاری، مهندسین نرم‌افزار، اخلاق‌دانان هوش مصنوعی و در نهایت، رهبران تغییرات سازمانی می‌شود.

اینها افرادی هستند که در شرکت کار می‌کنند تا هم بر تغییرات مورد نیاز برای داده محور شدن تأثیر بگذارند و هم برای توسعه و ارائه مدل‌های هوش مصنوعی در مقیاس موفقیت آمیز.

کتاب Responsible AI in the Enterprise طیف گسترده‌ای از موضوعات، از XAI و ملاحظات اخلاقی گرفته تا استانداردهای حاکمیت و انطباق مدل را پوشش می‌دهد و راهنمایی‌های عملی در مورد استفاده از ابزارهایی مانند مقیاس‌کننده‌های بزرگ، ابزارهای منبع باز و مایکروسافت Fairlearn ارائه می‌کند.

این یک منبع ارزشمند برای کسانی است که علاقه مند به درک آخرین پیشرفت‌ها در حاکمیت هوش مصنوعی، از جمله نقش تابلوهای هوش مصنوعی داخلی، اهمیت حاکمیت داده‌ها، و آخرین استانداردها و مقررات صنعت هستند.

کتاب Responsible AI in the Enterprise همچنین برای متخصصان هوش مصنوعی در صنایع مختلف، از جمله مراقبت‌های بهداشتی، خدمات مشتری، و امور مالی، با استفاده از هوش مصنوعی محاوره ای و تجزیه و تحلیل پیش بینی، مرتبط است.

چه یک ذینفع کسب‌وکار مسئول تصمیم‌گیری در مورد پذیرش هوش مصنوعی باشید، چه یک متخصص اخلاق هوش مصنوعی که به پیامدهای اخلاقی هوش مصنوعی توجه دارد یا یک متخصص هوش مصنوعی که مسئول ساخت و استقرار مدل‌ها است، این کتاب بینش‌های ارزشمند و راهنمایی‌های عملی را در مورد ایجاد هوش مصنوعی مسئول و شفاف ارائه می‌کند. مدل‌ها.

فصل‌های ضروری متناسب با موقعیت‌های متمایز مرتبط با هوش مصنوعی

برای متخصصان اخلاق هوش مصنوعی، حسابرسان و پرسنل انطباق، مرتبط‌ترین فصل‌ها به شرح زیر است:

فصل 1، آغازگر هوش مصنوعی قابل توضیح و اخلاقی

فصل 5، مدل حاکمیت، حسابرسی و انطباق

فصل 6، کیت آغازگر سازمانی برای انصاف، مسئولیت پذیری و شفافیت

فصل 10، مدل‌های بنیادی و Azure OpenAI

این فصل‌ها بر هوش مصنوعی قابل توضیح و اخلاقی، حاکمیت مدل، استانداردهای انطباق، اجرای هوش مصنوعی مسئول و چالش‌های مرتبط با مدل‌های زبان بزرگ تمرکز دارند.

مدیران و ذی‌نفعان کسب و کار فصل‌های زیر را بیشتر مرتبط می‌دانند:

فصل 2، الگوریتم‌هایی که از کنترل خارج شده‌اند

فصل 5، مدل حاکمیت، حسابرسی و انطباق

فصل 6، کیت آغازگر سازمانی برای انصاف، مسئولیت پذیری و شفافیت

این فصل‌ها تأثیر سوگیری در هوش مصنوعی، اهمیت شفافیت و مسئولیت‌پذیری در تصمیم‌گیری مبتنی بر هوش مصنوعی، و جنبه‌های عملی اجرای حکمرانی هوش مصنوعی در یک سازمان را پوشش می‌دهند.

دانشمندان داده و مهندسان یادگیری ماشین کل کتاب را بسیار مفید خواهند یافت، اما مرتبط ترین فصل‌ها برای دانشمندان داده و مهندسان یادگیری ماشین به شرح زیر است:

فصل 1، آغازگر هوش مصنوعی قابل توضیح و اخلاقی

فصل 3، باز کردن جعبه سیاه الگوریتمی

فصل 4، ML قوی – نظارت و مدیریت

فصل 7، ابزارهای تفسیرپذیری و معیارهای انصاف – AWS، GCP، Azure، و AIF 360

فصل 8، عدالت در سیستم‌های هوش مصنوعی با مایکروسافت Fairlearn

فصل 9، ارزیابی عادلانه و کاهش تعصب با Fairlearn و جعبه ابزار هوش مصنوعی مسئول

این فصول اطلاعات ارزشمندی در مورد هوش مصنوعی قابل توضیح و اخلاقی، تفسیرپذیری مدل، نظارت بر عملکرد مدل، و کاربردهای عملی تکنیک‌های کاهش انصاف و تعصب ارائه می‌کنند.

در حالی که این کتاب مفاهیم سطح پیشرفته را پوشش می‌دهد، به سبکی قابل دسترس نوشته شده است و درک پایه ای از هوش مصنوعی و مفاهیم یادگیری ماشین را فرض می‌کند. با این حال، کسانی که تجربه کمتری دارند ممکن است نیاز به تلاش بیشتری برای درک کامل مطالب داشته باشند.

آنچه کتاب Responsible AI in the Enterprise پوشش می‌دهد:

این کتاب راهنمای جامعی برای مدیریت هوش مصنوعی مسئول و مدل یادگیری ماشین است. طیف وسیعی از موضوعات از جمله XAI، هوش مصنوعی اخلاقی، تعصب در سیستم‌های هوش مصنوعی، تفسیرپذیری مدل، حاکمیت و انطباق مدل، انصاف و مسئولیت‌پذیری در هوش مصنوعی، حاکمیت داده، و آموزش اخلاقی هوش مصنوعی و ارتقاء مهارت را پوشش می‌دهد.

کتاب Responsible AI in the Enterprise بینش عملی در مورد استفاده از ابزارهایی مانند Microsoft FairLearn برای ارزیابی انصاف و کاهش تعصب ارائه می‌دهد. برای دانشمندان داده، مهندسان یادگیری ماشین، متخصصان هوش مصنوعی، متخصصان فناوری اطلاعات، ذینفعان کسب و کار، و متخصصان اخلاق هوش مصنوعی که مسئول پیاده‌سازی مدل‌های هوش مصنوعی در سازمان‌های خود هستند، خواندن آن ضروری است.

محتوا به سبکی قابل درک ارائه شده است که آن را به منبعی ارزشمند برای متخصصان در تمام سطوح تخصص تبدیل می‌کند.

فصل 1 کتاب Responsible AI in the Enterprise، آغازگر هوش مصنوعی قابل توضیح و اخلاقی، درک جامعی از مفاهیم کلیدی مرتبط با هوش مصنوعی قابل توضیح و تفسیر را ارائه می‌دهد. شما با اصطلاحات یادگیری ماشینی ایمن، اخلاقی، قابل توضیح، قوی، شفاف، قابل ممیزی و تفسیرپذیر آشنا خواهید شد.

این فصل از کتاب Responsible AI in the Enterprise به عنوان پایه ای محکم برای تازه کارها و همچنین مرجعی برای متخصصان باتجربه یادگیری ماشین است. با بحث در مورد چرخه عمر توسعه یادگیری ماشین شروع می‌شود و طبقه‌بندی هوش مصنوعی قابل تفسیر و قابلیت مشاهده ریسک مدل را ترسیم می‌کند و یک نمای کلی از این زمینه ارائه می‌دهد.

فصل 2 کتاب Responsible AI in the Enterprise، الگوریتم‌ها وحشی‌شده‌اند، محدودیت‌ها و چالش‌های فعلی هوش مصنوعی و اینکه چگونه می‌تواند به تقویت تعصب‌های موجود کمک کند را پوشش می‌دهد.

علی‌رغم این چالش‌ها، این فصل از کتاب Responsible AI in the Enterprise استفاده روزافزون از هوش مصنوعی را برجسته می‌کند و مروری بر کاربردهای مختلف آن، از جمله داستان‌های ترسناک هوش مصنوعی و موارد تبعیض، سوگیری، اطلاعات نادرست، جعلی، سیستم‌های اعتبار اجتماعی، نظارت و کلاهبرداری ارائه می‌دهد.

این فصل از کتاب Responsible AI in the Enterprise به عنوان بستری برای بحث عمل می‌کند و کاربردهای مختلف هوش مصنوعی را گرد هم می‌آورد و فضایی را برای شما فراهم می‌کند تا در مورد پیامدهای بالقوه استفاده از آن فکر کنید. در پایان این فصل، شما درک عمیق تری از ماهیت پیچیده و ظریف هوش مصنوعی و اهمیت در نظر گرفتن پیامدهای اخلاقی و اجتماعی آن خواهید داشت.

فصل 3، باز کردن جعبه سیاه الگوریتمی، به شما در مورد زمینه XAI و چالش‌های آن، از جمله عدم رسمیت و تعاریف ضعیف می‌آموزد.

این فصل از کتاب Responsible AI in the Enterprise مروری بر چهار دسته اصلی از روش‌های تفسیرپذیری ارائه می‌دهد که امکان مقایسه چند منظری این روش‌ها را فراهم می‌کند.

هدف این فصل توضیح مدل‌های جعبه سیاه و ایجاد مدل‌های جعبه سفید، اطمینان از انصاف و محدود کردن تبعیض، و تحلیل حساسیت پیش‌بینی‌های مدل است.

این فصل از کتاب Responsible AI in the Enterprise همچنین نحوه توضیح مدل‌های جعبه سیاه را با مدل‌های جعبه سفید نشان می‌دهد و درک درستی از گزاره ارزش تفاضلی و رویکردهای مورد استفاده در هر یک از این کتابخانه‌ها ارائه می‌دهد.

در پایان این فصل، شما درک جامعی از چالش‌ها و فرصت‌ها در زمینه XAI و روش‌های مختلف تفسیرپذیری موجود برای ایجاد مدل‌های یادگیری ماشینی شفاف‌تر و قابل توضیح‌تر خواهید داشت.

فصل 4، ML مستحکم – نظارت و مدیریت، در مورد اهمیت اعتبار سنجی و نظارت مداوم به عنوان بخشی جدایی ناپذیر از چرخه عمر توسعه مدل صحبت می‌کند. این فصل بر فرآیند نظارت بر عملکرد مدل متمرکز است، که با کمی کردن تخریب یک مدل شروع می‌شود.

شما در مورد شناسایی پارامترها برای ردیابی عملکرد مدل و تعیین آستانه‌هایی که باید هشدار ایجاد کنند، یاد خواهید گرفت.

این فصل از کتاب Responsible AI in the Enterprise بر اجزای اساسی نظارت بر عملکرد مدل، از جمله حفظ هدف تجاری یک مدل و تشخیص انحرافات در جهت آن در طول و پس از استقرار، تمرکز دارد. شما یاد خواهید گرفت که چگونه از تکنیک‌های مختلف به عنوان بخشی از نظارت بر مدل استفاده کنید و فرآیندی برای شناسایی، هشدار و رسیدگی به دریفت‌ها بسازید.

هدف این فصل از کتاب Responsible AI in the Enterprise نشان دادن اهمیت نظارت خودکار یک مدل در حال اجرا، ارائه اقدامات جامع برای نظارت بر جابجایی داده‌ها، پایش رانش مفهومی مدل، نظارت بر عملکرد آماری، نظارت بر عدالت اخلاقی، شبیه‌سازی سناریوهای تجاری، تجزیه و تحلیل چه می‌شود و مقایسه تولید است. پارامترهایی مانند اجرای مدل موازی و معیارهای سفارشی.

در پایان این فصل از کتاب Responsible AI in the Enterprise، شما درک جامعی از اهمیت اعتبارسنجی و نظارت مداوم در چرخه عمر توسعه مدل و تکنیک‌های تشخیص و رسیدگی به انحرافات در عملکرد یک مدل خواهید داشت.

فصل 5 کتاب Responsible AI in the Enterprise، مدل حاکمیت، حسابرسی و انطباق، به بررسی قدرت پیش‌بینی الگوریتم‌های یادگیری ماشین و توانایی آن‌ها در دریافت مقادیر زیادی داده از منابع مختلف می‌پردازد. این فصل بر جنبه حاکمیتی این مدل‌ها تمرکز دارد، زیرا نگرانی‌های فزاینده‌ای در مورد عدم شفافیت در فرآیندهای تصمیم‌گیری مبتنی بر هوش مصنوعی وجود دارد.

شما ابتکارات نظارتی مختلف، از جمله ابتکارات کمیسیون خدمات مالی ایالات متحده و کمیسیون تجارت فدرال ایالات متحده، در مورد هوش مصنوعی و یادگیری ماشین را بررسی خواهید کرد.

این فصل از کتاب Responsible AI in the Enterprise استانداردهای مختلف حسابرسی و انطباق و مقررات به سرعت در حال تحول هوش مصنوعی را با توجه به تأثیر بالقوه آن بر زندگی، معیشت، مراقبت‌های بهداشتی و سیستم‌های مالی مردم پوشش می‌دهد.

شما اهمیت قابلیت ممیزی را در مدل‌های هوش مصنوعی با قابلیت ردیابی تولید، از جمله در دسترس بودن عکس‌های فوری غیرقابل تغییر مدل‌ها برای قابلیت ممیزی بلندمدت، همراه با کد منبع، ابرداده و سایر مصنوعات مرتبط، درک خواهید کرد.

در پایان این فصل از کتاب Responsible AI in the Enterprise، شما درک جامعی از جنبه حاکمیتی مدل‌های یادگیری ماشین و اهمیت تضمین شفافیت و مسئولیت‌پذیری در فرآیندهای تصمیم‌گیری مبتنی بر هوش مصنوعی خواهید داشت.

فصل 6 کتاب Responsible AI in the Enterprise، کیت راه‌انداز سازمانی برای عدالت، مسئولیت‌پذیری و شفافیت، اهمیت اجرای اصول اخلاقی هوش مصنوعی را در زمانی که سازمان‌ها هوش مصنوعی را اتخاذ می‌کنند، نشان می‌دهد.

این فصل از کتاب Responsible AI in the Enterprise یک رویکرد عملی برای استفاده از هوش مصنوعی و ابزارهای مناسب برای اطمینان از عدالت هوش مصنوعی، کاهش تعصب، توضیح پذیری، رعایت حریم خصوصی و حفظ حریم خصوصی در یک محیط سازمانی ارائه می‌دهد.

شما درک خواهید کرد که چگونه اعتماد، انصاف، و قابل درک بودن، کلیدهای هوش مصنوعی مسئول و پاسخگو هستند و چگونه می‌توان در یک محیط سازمانی با ابزارهای پشتیبانی، به حکمرانی هوش مصنوعی دست یافت.

در این فصل از کتاب Responsible AI in the Enterprise، پیاده‌سازی تعصب و انصاف، قابلیت توضیح، اعتماد و شفافیت، و رعایت حریم خصوصی و مقررات در سازمان ارائه می‌شود.

همچنین انواع ابزارهای موجود برای XAI را بررسی خواهید کرد، از جمله TensorBoard Projector، What-If Tool، Aequitas، AI Fairness 360، AI Explainability 360، ELI5، توضیح‌دهنده داشبورد، Fairlearn، تفسیر، Scikit-Fairness، InterpretML، tf-explain، هوش مصنوعی XAI، AWS Clarify و Vertex Explainable.

در پایان این فصل از کتاب Responsible AI in the Enterprise، شما درک جامعی از نحوه استفاده از ابزارهای حاکمیت هوش مصنوعی برای اطمینان از استفاده مسئولانه و حساب شده از هوش مصنوعی در یک محیط سازمانی خواهید داشت.

فصل 7 کتاب Responsible AI in the Enterprise، ابزارهای تفسیرپذیری و معیارهای انصاف – AWS، GCP، Azure، و AIF 360، استفاده از ابزارهای تفسیرپذیری و پیشنهادات ارائه‌دهندگان هوش مصنوعی ابری را برای شناسایی و محدود کردن سوگیری و توضیح پیش‌بینی‌ها در مدل‌های یادگیری ماشین نشان می‌دهد.

این فصل از کتاب Responsible AI in the Enterprise مروری بر بسته‌های ابزار تفسیرپذیر منبع باز و ابری موجود، از جمله AIF360 IBM، Amazon SageMaker’s Clarify، Vertex Explainable AI Google و Model Interpretability در یادگیری ماشینی Azure ارائه می‌کند.

شما درک عمیق‌تری از انواع ابزارهای موجود برای هوش مصنوعی قابل توضیح و مزایایی که آن‌ها از نظر دید بیشتر در داده‌ها و مدل‌های آموزشی ارائه می‌دهند، به دست خواهید آورد.

در پایان این فصل از کتاب Responsible AI in the Enterprise، شما درک جامعی از نقش بسته‌های ابزار تفسیرپذیری در تضمین عدالت و شفافیت مدل‌های یادگیری ماشین خواهید داشت.

فصل 8 کتاب Responsible AI in the Enterprise، عدالت در سیستم‌های هوش مصنوعی با مایکروسافت Fairlearn، درباره مایکروسافت FairLearn، یک جعبه ابزار منصفانه منبع باز برای هوش مصنوعی صحبت می‌کند.

این فصل از کتاب Responsible AI in the Enterprise مروری بر جعبه ابزار و قابلیت‌های آن، از جمله استفاده از آن به عنوان راهنمای دانشمندان داده برای درک بهتر مسائل مربوط به عدالت در هوش مصنوعی، ارائه می‌دهد.

شما در مورد دو مؤلفه Fairlearn Python، از جمله معیارهایی برای ارزیابی زمانی که گروه‌ها تحت تأثیر منفی یک مدل قرار می‌گیرند و معیارهایی برای مقایسه چندین مدل، آشنا خواهید شد.

این فصل از کتاب Responsible AI in the Enterprise ارزیابی انصاف را با استفاده از آسیب تخصیص و آسیب کیفیت خدمات، و همچنین کاهش ناعادلانه و رویکردهای بهبود یک مدل ناعادلانه را پوشش خواهد داد. در پایان این فصل، شما درک جامعی از مایکروسافت Fairlearn و نقش آن در تضمین استفاده منصفانه و اخلاقی از مدل‌های یادگیری ماشین خواهید داشت.

فصل 9 کتاب Responsible AI in the Enterprise، ارزیابی عادلانه و کاهش تعصب با Fairlearn و جعبه ابزار هوش مصنوعی مسئول، کاربرد عملی Fairlearn را در سناریوهای دنیای واقعی بررسی می‌کند.

این فصل از کتاب Responsible AI in the Enterprise ارزیابی معیارها و تکنیک‌های مرتبط با انصاف را برای کاهش تعصب و نابرابری با استفاده از Fairlearn پوشش می‌دهد.

همچنین در مورد جعبه ابزار هوش مصنوعی مسئولیت‌پذیر، که مجموعه ای از رابط‌های کاربری و کتابخانه‌های کاوش و ارزیابی داده‌ها و مدل‌ها را برای درک بهتر سیستم‌های هوش مصنوعی ارائه می‌دهد، آشنا خواهید شد.

این فصل از کتاب Responsible AI in the Enterprise داشبورد هوش مصنوعی مسئول، داشبورد تجزیه و تحلیل خطا، داشبورد تفسیرپذیری و داشبورد انصاف را معرفی می‌کند و اینکه چگونه می‌توان از آن‌ها برای شناسایی خطاهای مدل، تشخیص چرایی وقوع آن خطاها، درک پیش‌بینی‌های مدل و ارزیابی عادلانه بودن مدل استفاده کرد. در پایان این فصل، درک جامعی از نحوه استفاده از جعبه ابزار مسئولیت‌پذیر هوش مصنوعی و Fairlearn برای اطمینان از استفاده منصفانه و اخلاقی از مدل‌های یادگیری ماشین در کار خود خواهید داشت.

فصل 10 کتاب Responsible AI in the Enterprise، مدل‌های بنیادی و Azure OpenAI، موارد استفاده عملی از حاکمیت را در مورد LLM نشان می‌دهد – در این مورد، پیشنهادات API OpenAI و Azure OpenAI.

این فصل اجرای LLM ها، مانند GPT-3 را پوشش می‌دهد، که می‌تواند برای انواع موارد استفاده تجاری استفاده شود، و چالش‌های مرتبط با LLM های حاکم، مانند حریم خصوصی و امنیت داده‌ها را بررسی می‌کند.

در حالی که این مدل‌ها می‌توانند عملکرد برنامه‌های کاربردی سازمانی را افزایش دهند، از نظر حاکمیت نیز چالش‌های مهمی را ایجاد می‌کنند.

این فصل از کتاب Responsible AI in the Enterprise بر اهمیت حکمرانی هوش مصنوعی برای استفاده اخلاقی و مسئولانه از LLMها و نیاز به تکنیک‌های اصلاح سوگیری برای اطمینان از منصفانه و بی‌طرفانه بودن راه‌حل‌های هوش مصنوعی تاکید می‌کند.

علاوه بر این، ما در مورد حریم خصوصی داده‌ها و اقدامات امنیتی ارائه شده توسط Azure OpenAI و اهمیت ایجاد چارچوب حاکمیت هوش مصنوعی برای استفاده سازمانی از این ابزارها بحث خواهیم کرد.

سرفصل‌های کتاب Responsible AI in the Enterprise:

  • Responsible AI in the Enterprise
  • Foreword
  • Contributors
  • About the authors
  • About the reviewer
  • Preface
  • Part 1: Bigot in the Machine – A Primer
    • Chapter 1: Explainable and Ethical AI Primer
    • Chapter 2: Algorithms Gone Wild
  • Part 2: Enterprise Risk Observability Model Governance
    • Chapter 3: Opening the Algorithmic Black Box
    • Chapter 4: Robust ML – Monitoring and Management
    • Chapter 5: Model Governance, Audit, and Compliance
    • Chapter 6: Enterprise Starter Kit for Fairness, Accountability, and Transparency
  • Part 3: Explainable AI in Action
    • Chapter 7: Interpretability Toolkits and Fairness Measures – AWS, GCP, Azure, and AIF 360
    • Chapter 8: Fairness in AI Systems with Microsoft Fairlearn
    • Chapter 9: Fairness Assessment and Bias Mitigation with Fairlearn and the Responsible AI Toolbox
    • Chapter 10: Foundational Models and Azure OpenAI
  • Index
  • Other Books You May Enjoy

جهت دانلود کتاب Responsible AI in the Enterprise می‌توانید پس از پرداخت، دریافت کنید.

فرمت کتاب

epub, mobi, PDF

ویرایش

First

ISBN

978-1-80323-052-8

تعداد صفحات

314

انتشارات

سال انتشار

حجم

6.89 مگابایت, 9.36 مگابایت, 9.70 مگابایت

نویسنده

,

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “کتاب Responsible AI in the Enterprise”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

خرید کتاب Responsible AI in the Enterprise:

۲۶,۰۰۰ تومان

  • نسخه کتاب فعلی به زبان لاتین می‌باشد.
  • کتاب به صورت فایل می‌باشد و پس از خرید بلافاصله در دسترس شما قرار می‌گیرد.
  • در صورت هرگونه سؤال با ایمیل و یا شماره پشتیبانی سایت در تماس باشید.
دسته‌بندی کتاب‌ها:
سبد خرید
پیمایش به بالا