کتاب Mathematics of Machine Learning

  • کتاب Mathematics of Machine Learning
  • بخش 1 کتاب Mathematics of Machine Learning
  • بخش 3 کتاب Mathematics of Machine Learning
  • بخش 5 کتاب Mathematics of Machine Learning
کتاب Mathematics of Machine Learning

خرید کتاب Mathematics of Machine Learning:

۳۶,۰۰۰ تومان

  • نسخه کتاب فعلی به زبان لاتین می‌باشد.
  • کتاب به صورت فایل می‌باشد و پس از خرید بلافاصله در دسترس شما قرار می‌گیرد.
  • در صورت هرگونه سؤال با ایمیل و یا شماره پشتیبانی سایت در تماس باشید.

کتاب Mathematics of Machine Learning: Master linear algebra, calculus, and probability for machine learning (ریاضیات یادگیری ماشین: فراگیری جبر خطی، حسابان، و احتمال برای یادگیری ماشین) یک راهنمای جامع برای هر کسی است که می‌خواهد مبانی ریاضیاتی لازم برای درک عمیق یادگیری ماشین را فرا گیرد. این کتاب به طور خاص بر سه ستون اصلی ریاضیات مرتبط با یادگیری ماشین تمرکز دارد: جبر خطی (که برای درک داده‌ها و عملیات برداری ضروری است)، حسابان (برای بهینه‌سازی الگوریتم‌ها و درک گرادیان‌ها) و نظریه احتمال (برای مدل‌سازی عدم قطعیت و استنتاج آماری).

کتاب Mathematics of Machine Learning با ارائه توضیحات واضح و مثال‌های کاربردی، به خوانندگان کمک می‌کند تا نه تنها مفاهیم ریاضی را درک کنند، بلکه نحوه اعمال آن‌ها را در الگوریتم‌ها و مدل‌های یادگیری ماشین نیز بیاموزند و به این ترتیب، پایه‌ای محکم برای موفقیت در این حوزه رو به رشد فراهم می‌کند.

در ادامه مقدمه‌ای از کتاب Mathematics of Machine Learning را از زبان نویسنده شرح خواهیم داد.

مقدمه‌ای بر کتاب Mathematics of Machine Learning:

چرا باید ریاضیات یاد بگیرم؟ – این سوالی است که روزانه از من پرسیده می‌شود.

خب، مجبور نیستید. اما باید یاد بگیرید!

در ظاهر، ریاضیات پیشرفته در مهندسی نرم‌افزار و یادگیری ماشین در محیط تولید تأثیری ندارد. لازم نیست گرادیان‌ها را محاسبه کنید، معادلات خطی را حل کنید، یا مقادیر ویژه را با دست پیدا کنید. الگوریتم‌های اساسی و پیشرفته در کتابخانه‌ها و APIها انتزاعی شده‌اند و تمام کارهای سخت را برای شما انجام می‌دهند.

امروزه، پیاده‌سازی یک شبکه عصبی عمیق پیشرفته تقریباً معادل ساخت یک شیء در PyTorch، بارگذاری وزن‌های از پیش آموزش‌دیده، و اجازه دادن به داده‌ها برای عبور از مدل است. درست مانند تمام پیشرفت‌های تکنولوژیکی، این یک شمشیر دو لبه است. از یک طرف، چارچوب‌هایی که نمونه‌سازی سریع و توسعه را تسریع می‌کنند، یادگیری ماشین را در عمل ممکن می‌سازند. بدون آنها، شاهد انفجار یادگیری عمیق در دهه گذشته نبودیم.

از سوی دیگر، انتزاعات سطح بالا موانعی بین ما و فناوری زیربنایی هستند. دانش در سطح کاربر تنها زمانی کافی است که در مسیرهای آشنا حرکت می‌کنیم. (یا تا زمانی که چیزی خراب شود.)

اگر قانع نشده‌اید، بیایید یک آزمایش فکری انجام دهیم! تصور کنید به کشوری جدید مهاجرت می‌کنید بدون اینکه زبان را بلد باشید و از شیوه زندگی آن آگاه باشید. با این حال، یک گوشی هوشمند و یک اتصال اینترنتی قابل اعتماد دارید.

چگونه شروع به کاوش می‌کنید؟

با گوگل مپس و یک کارت اعتباری، می‌توانید کارهای فوق‌العاده‌ای در آنجا انجام دهید: شهر را کاوش کنید، در رستوران‌های عالی غذا بخورید و اوقات خوشی داشته باشید. می‌توانید هر روز بدون اینکه کلمه‌ای صحبت کنید خرید کنید: فقط وسایل را در سبد خود بگذارید و کارت خود را در صندوق بکشید.

پس از چند ماه، شروع به یادگیری کمی از زبان نیز خواهید کرد – چیزهای ساده‌ای مانند احوالپرسی یا معرفی خودتان. شروع خوبی است!

راه‌حل‌های داخلی برای کارهای روزمره وجود دارند که به راحتی کار می‌کنند – خدمات سفارش غذا، حمل و نقل عمومی و غیره. با این حال، در نقطه‌ای، اینها خراب می‌شوند. به عنوان مثال، شما باید با پیک تماس بگیرید که بسته‌ی شما را به درب اشتباه تحویل داده است. اگر ماشین کرایه‌ای شما خراب شود، باید درخواست کمک کنید.

شما ممکن است بخواهید کارهای بیشتری انجام دهید. شغلی پیدا کنید، یا حتی کسب و کار خودتان را راه‌اندازی کنید. برای آن، باید بتوانید به طور موثر با دیگران ارتباط برقرار کنید.

یادگیری زبان زمانی که قصد دارید چند ماه در جایی زندگی کنید، ضروری نیست. با این حال، اگر می‌خواهید بقیه عمرتان را در آنجا بمانید، این یکی از بهترین سرمایه‌گذاری‌هایی است که می‌توانید انجام دهید.

حالا، کشور را با یادگیری ماشین و زبان را با ریاضیات جایگزین کنید.

واقعیت این است که الگوریتم‌ها به زبان ریاضیات نوشته شده‌اند. برای تسلط بر الگوریتم‌ها، باید به این زبان صحبت کنید.


کتاب Mathematics of Machine Learning در مورد چیست؟

“شباهتی بین شناخت یک شهر و تسلط بر یک حوزه دانش وجود دارد؛ از هر نقطه مشخصی باید بتوان به هر نقطه دیگری رسید. حتی بهتر است اگر بتوان بلافاصله کوتاه‌ترین و راحت‌ترین مسیر را از یک نقطه به نقطه دیگر طی کرد.”

— جرج پولیا و گابور شگو، در مقدمه کتاب افسانه‌ای «مسائل و قضایا در تحلیل»

نقل قول بالا یکی از محبوب‌ترین نقل قول‌های من است. برای من، این می‌گوید که دانش بر پایه‌های بسیاری استوار است. همانطور که یک صندلی چهار پایه دارد، یک مهندس یادگیری ماشین با دانش گسترده نیز مجموعه مهارت‌های وسیعی دارد که او را قادر می‌سازد در کار خود موثر باشد. هر یک از ما بر مجموعه‌ای متعادل از مهارت‌ها تمرکز می‌کنیم، و ریاضیات برای بسیاری یک افزودنی عالی است. شما می‌توانید یادگیری ماشین را بدون ریاضیات پیشرفته شروع کنید، اما در نقطه‌ای از حرفه خود، آشنایی با پیش‌زمینه ریاضیاتی یادگیری ماشین می‌تواند به شما کمک کند مهارت‌های خود را به سطح بعدی برسانید.

دو مسیر برای تسلط در یادگیری عمیق وجود دارد. یکی از بخش‌های عملی شروع می‌شود و دیگری از تئوری. هر دو کاملاً امکان‌پذیر هستند، و در نهایت، به هم می‌پیوندند. کتاب Mathematics of Machine Learning برای کسانی است که مسیر عملی و کاربردی را شروع کرده‌اند، مانند دانشمندان داده، مهندسان یادگیری ماشین، یا حتی توسعه‌دهندگان نرم‌افزار علاقه‌مند به این موضوع.

کتاب Mathematics of Machine Learning یک رساله ریاضیاتی ۱۰۰% خالص نیست. در برخی نقاط، برای ایجاد تعادل بین وضوح و صحت ریاضی، میانبرهایی را ایجاد خواهم کرد. هدف من این است که لحظات “یافتم!” را به شما بدهم و به شما کمک کنم تا تصویر بزرگتر را درک کنید، به جای اینکه شما را برای دکترا در ریاضیات آماده کنم.

اکثر کتاب‌های یادگیری ماشینی که من خوانده‌ام به یکی از دو دسته زیر می‌افتند:

  • تمرکز بر کاربردهای عملی، اما نامشخص و نادقیق با مفاهیم ریاضیاتی.
  • تمرکز بر تئوری، شامل ریاضیات سنگین با تقریباً هیچ کاربرد واقعی.

من می‌خواهم کتاب Mathematics of Machine Learning بهترین هر دو رویکرد را ارائه دهد: مقدمه‌ای محکم بر مفاهیم ریاضیاتی پایه و پیشرفته، با در نظر داشتن یادگیری ماشین در هر زمان.

هدف من تنها پوشش اصول اولیه نیست، بلکه ارائه طیف وسیعی از دانش است. در تجربه من، برای تسلط بر یک موضوع، باید هم عمیق و هم گسترده بود. پوشش تنها اصول بسیار ضروری ریاضیات مانند راه رفتن روی بند باریک خواهد بود. به جای انجام یک عمل تعادلی هر بار که در آینده با یک موضوع ریاضیاتی مواجه می‌شوید، می‌خواهم شما پایه‌ای محکم به دست آورید. چنین اطمینانی می‌تواند شما را بسیار جلو ببرد و شما را از دیگران متمایز کند.

در طول سفرمان، ما از یک نقشه راه پیروی خواهیم کرد که ما را از طریق موارد زیر می‌برد:

  • جبر خطی (Linear algebra)
  • حسابان (Calculus)
  • حسابان چند متغیره (Multivariable calculus)
  • نظریه احتمال (Probability theory)

سفرمان را با جبر خطی آغاز خواهیم کرد. در یادگیری ماشین، داده‌ها با بردارها نمایش داده می‌شوند. آموزش یک الگوریتم یادگیری همان یافتن نمایش‌های توصیفی‌تر از داده‌ها از طریق مجموعه‌ای از تبدیلات است.

جبر خطی مطالعه فضاهای برداری و تبدیلات آنها است.

به بیان ساده، یک شبکه عصبی فقط تابعی است که داده‌ها را به یک نمایش سطح بالا نگاشت می‌کند. تبدیلات خطی، بلوک‌های ساختمانی اساسی اینها هستند. توسعه درک خوبی از آنها بسیار مفید خواهد بود، زیرا آنها در همه جای یادگیری ماشین حضور دارند.

در حالی که جبر خطی نشان می‌دهد که چگونه مدل‌های پیش‌بینی را توصیف کنیم، حسابان ابزارهایی برای تطبیق آنها با داده‌ها دارد. هنگامی که یک شبکه عصبی را آموزش می‌دهید، تقریباً مطمئناً از گرادیان کاهشی (gradient descent) استفاده می‌کنید، تکنیکی که ریشه در حسابان و مطالعه مشتق‌گیری دارد.

علاوه بر مشتق‌گیری، “معکوس” آن نیز بخش اصلی حسابان است: انتگرال‌گیری. انتگرال‌ها مقادیر ضروری مانند امید ریاضی، آنتروپی، میانگین مربعات خطا و غیره را بیان می‌کنند. آنها پایه‌های احتمال و آمار را فراهم می‌کنند.

با این حال، هنگام انجام یادگیری ماشین، ما با توابعی با میلیون‌ها متغیر سروکار داریم. در ابعاد بالاتر، همه چیز متفاوت عمل می‌کند. اینجا جایی است که حسابان چند متغیره وارد می‌شود، جایی که مشتق‌گیری و انتگرال‌گیری با این فضاها تطبیق داده می‌شوند.

با داشتن جبر خطی و حسابان، آماده توصیف و آموزش شبکه‌های عصبی هستیم. با این حال، فاقد درک استخراج الگوها از داده‌ها هستیم. چگونه از آزمایشات و مشاهدات نتیجه‌گیری می‌کنیم؟ چگونه الگوها را در آنها توصیف و کشف کنیم؟ اینها توسط نظریه احتمال و آمار، منطق تفکر علمی، پاسخ داده می‌شوند. در فصل آخر، منطق باینری کلاسیک را گسترش می‌دهیم و یاد می‌گیریم که با عدم قطعیت در پیش‌بینی‌هایمان برخورد کنیم.


چگونه کتاب Mathematics of Machine Learning را بخوانیم؟

ریاضیات از ساختار «تعریف-قضیه-اثبات» پیروی می‌کند که در ابتدا ممکن است دشوار باشد. اگر با چنین جریانی ناآشنا هستید، نگران نباشید. من اکنون یک مقدمه ملایم ارائه خواهم داد.

اساساً، ریاضیات مطالعه اشیاء انتزاعی (مانند توابع) از طریق ویژگی‌های اساسی آنها است. به جای مشاهدات تجربی، ریاضیات بر منطق استوار است، که آن را جهانی می‌کند. اگر می‌خواهیم از ابزار قدرتمند منطق استفاده کنیم، اشیاء ریاضیاتی باید دقیقاً تعریف شوند. تعاریف در کادرهایی مانند این که در ادامه می‌آید، ارائه می‌شوند.

تعریف ۱. (یک تعریف نمونه)

تعاریف اینگونه ظاهر می‌شوند.

با توجه به یک تعریف، نتایج به صورت گزاره‌های «اگر A، آنگاه B» فرموله می‌شوند، که در آن A مقدمه و B نتیجه است. چنین نتایجی قضیه نامیده می‌شوند. برای مثال، اگر یک تابع مشتق‌پذیر باشد، آنگاه پیوسته نیز هست. اگر یک تابع محدب باشد، آنگاه دارای مینیمم سراسری است. اگر تابعی داشته باشیم، آنگاه می‌توانیم آن را با دقت دلخواه با استفاده از یک شبکه عصبی تک‌لایه تقریب بزنیم. الگو را متوجه می‌شوید. قضایا هسته اصلی ریاضیات هستند.

ما باید یک استدلال منطقی محکم برای پذیرش اعتبار یک گزاره ارائه دهیم، استدلالی که نتیجه را از مقدمه استنتاج کند. این اثبات نامیده می‌شود که مسئول منحنی یادگیری شیب‌دار ریاضیات است. بر خلاف سایر رشته‌های علمی، اثبات‌ها در ریاضیات گزاره‌های غیرقابل انکار هستند که برای همیشه ثابت شده‌اند. در یک نکته عملی، به این کادرها توجه کنید.

قضیه ۱. (یک قضیه نمونه)

فرض کنید x یک شیء ریاضیاتی فانتزی است. دو گزاره زیر برقرارند.

(الف) اگر A، آنگاه B.

(ب) اگر C و D، آنگاه E.

اثبات. اینجاست که اثبات می‌آید.

برای افزایش تجربه یادگیری، اغلب اطلاعات مفید اما نه کاملاً ضروری را در قالب «ملاحظات» (remarks) قرار خواهم داد.

ملاحظه ۱. (یک ملاحظه هیجان‌انگیز)

ریاضیات فوق‌العاده است. به خاطر آن مهندس بهتری خواهید شد.

موثرترین راه یادگیری ساختن چیزها و به کار بردن تئوری در عمل است. در ریاضیات، این تنها راه یادگیری است. این بدان معناست که باید متن را با دقت بخوانید. هیچ چیز را به دلیل نوشته شدن در آن مسلم نگیرید. هر جمله را با دقت بررسی کنید. هر استدلال و محاسبه را جداگانه تحلیل کنید. سعی کنید قضایا را خودتان قبل از خواندن اثبات‌ها اثبات کنید.

با این اوصاف، بیایید شروع کنیم! کمربندها را ببندید؛ جاده طولانی و پر از پیچ و خم است.


آنچه کتاب Mathematics of Machine Learning پوشش می‌دهد:

فصل ۱، بردارها و فضاهای برداری به توضیح بردارها و نحوه کار با آنها می‌پردازد. از مثال‌های ملموس گرفته تا تعاریف دقیق ریاضی و سپس پیاده‌سازی‌ها، به درک فضاهای برداری و آرایه‌های NumPy (که برای نمایش کارآمد بردارها استفاده می‌شوند) می‌پردازیم. علاوه بر اصول، مطالب زیر را نیز خواهیم آموخت:

فصل ۲ کتاب Mathematics of Machine Learning، ساختار هندسی فضاهای برداری با بررسی مفاهیم نُرم‌ها (Norms)، فاصله‌ها، ضرب داخلی، زوایا و تعامد، به جلو حرکت می‌کند و تعریف جبری فضاهای برداری را با ساختار هندسی ضروری تکمیل می‌کند. اینها فقط ابزارهایی برای تجسم نیستند؛ آنها نقش حیاتی در یادگیری ماشین ایفا می‌کنند. همچنین با اولین الگوریتم خود، روش متعامدسازی گرام-اشمیت (Gram-Schmidt orthogonalization method)، آشنا می‌شویم که هر مجموعه‌ای از بردارها را به یک پایه متعامد نرمال (orthonormal basis) تبدیل می‌کند.

در فصل ۳ کتاب Mathematics of Machine Learning، جبر خطی در عمل، یک بار دیگر NumPy را به کار می‌گیریم و همه چیزهایی را که تا کنون یاد گرفته‌ایم پیاده‌سازی می‌کنیم. در اینجا، یاد می‌گیریم که چگونه در عمل با آرایه‌های NumPy با کارایی بالا کار کنیم: عملیات، پخش (broadcasting)، توابع، که در نهایت به پیاده‌سازی گام به گام الگوریتم گرام-اشمیت منجر می‌شود. این همچنین اولین باری است که با ماتریس‌ها، ستون‌های اصلی جبر خطی، مواجه می‌شویم.

فصل ۴ کتاب Mathematics of Machine Learning، تبدیلات خطی درباره ماهیت واقعی ماتریس‌ها است؛ یعنی تبدیلات حافظ ساختار بین فضاهای برداری. به این ترتیب، چیزهای به ظاهر مبهم – مانند تعریف ضرب ماتریس – ناگهان معنی پیدا می‌کنند. یک بار دیگر، ما از ساختارهای جبری به ساختارهای هندسی می‌جهیم، که به ما امکان می‌دهد ماتریس‌ها را به عنوان تبدیلات مطالعه کنیم که فضای زیرین خود را تغییر شکل می‌دهند. همچنین به یکی از مهمترین توصیف‌کننده‌های ماتریس‌ها خواهیم پرداخت: دترمینان‌ها، که نحوه تأثیر تبدیلات خطی زیرین بر حجم فضاها را توصیف می‌کنند.

فصل ۵ کتاب Mathematics of Machine Learning، ماتریس‌ها و معادلات سومین (و برای ما، آخرین) چهره ماتریس‌ها را به عنوان سیستم‌های معادلات خطی معرفی می‌کند. در این فصل از کتاب Mathematics of Machine Learning، ابتدا یاد می‌گیریم که چگونه سیستم‌های معادلات خطی را با دست با استفاده از حذف گاوسی (Gaussian elimination) حل کنیم، سپس با دانش تازه خود از جبر خطی آن را فوق‌العاده تقویت می‌کنیم و به تجزیه LU (LU decomposition) قدرتمند دست می‌یابیم. با کمک تجزیه LU، به شدت تلاش می‌کنیم و به سرعتی حدود ۷۰۰۰۰ برابر در محاسبه دترمینان‌ها دست پیدا می‌کنیم.

فصل ۶ کتاب Mathematics of Machine Learning، دو مورد از مهمترین توصیف‌کننده‌های ماتریس‌ها را معرفی می‌کند: مقادیر ویژه (eigenvalues) و بردارهای ویژه (eigenvectors). چرا به آنها نیاز داریم؟

زیرا در فصل ۷ کتاب Mathematics of Machine Learning، تجزیه ماتریس‌ها، می‌توانیم با کمک آنها به اوج جبر خطی برسیم. ابتدا، نشان می‌دهیم که ماتریس‌های حقیقی و متقارن را می‌توان با ساختن یک پایه از بردارهای ویژه آنها به شکل قطری نوشت، که به عنوان قضیه تجزیه طیفی (spectral decomposition theorem) شناخته می‌شود. به نوبه خود، یک کاربرد هوشمندانه از تجزیه طیفی منجر به تجزیه مقدار منفرد (singular value decomposition) می‌شود، که مهمترین نتیجه منفرد جبر خطی است.

فصل ۸ کتاب Mathematics of Machine Learning، ماتریس‌ها و گراف‌ها بخش جبر خطی کتاب را با مطالعه ارتباط پربار بین جبر خطی و نظریه گراف می‌بندد. با نمایش ماتریس‌ها به عنوان گراف‌ها، می‌توانیم نتایج عمیقی مانند فرم نرمال فروبنیوس (Frobenius normal form) را نشان دهیم، یا حتی درباره مقادیر ویژه و بردارهای ویژه گراف‌ها صحبت کنیم.

در فصل ۹ کتاب Mathematics of Machine Learning، توابع، نگاهی دقیق به توابع می‌اندازیم، مفهومی که تا کنون به صورت شهودی از آن استفاده کرده‌ایم. این بار، شهود را از نظر ریاضی دقیق می‌کنیم و می‌آموزیم که توابع اساساً پیکان‌هایی بین نقاط هستند.

فصل ۱۰ کتاب Mathematics of Machine Learning، اعداد، دنباله‌ها و سری‌ها به اعماق مفهوم اعداد می‌پردازد. هر گام از اعداد طبیعی به سمت اعداد حقیقی نشان‌دهنده یک جهش مفهومی است که در مطالعه دنباله‌ها و سری‌ها به اوج خود می‌رسد.

با فصل ۱۱ کتاب Mathematics of Machine Learning، توپولوژی، حد و پیوستگی، تقریباً به بخش‌های واقعاً جالب رسیده‌ایم. با این حال، در حسابان، اشیاء، مفاهیم و ابزارها اغلب بر حسب حد و توابع پیوسته توصیف می‌شوند. بنابراین، نگاهی دقیق به چیستی آنها می‌اندازیم.

فصل ۱۲ کتاب Mathematics of Machine Learning در مورد مهمترین مفهوم در حسابان است: مشتق‌گیری (Differentiation). در این فصل، یاد می‌گیریم که مشتق یک تابع ۱) شیب خط مماس و ۲) بهترین تقریب خطی محلی برای یک تابع را توصیف می‌کند. از جنبه عملی، همچنین به نحوه رفتار مشتقات نسبت به عملیات، مهمتر از همه ترکیب تابع، نگاه می‌کنیم که منجر به قاعده زنجیره‌ای (chain rule) ضروری می‌شود، که جزء لاینفک انتشار معکوس (backpropagation) است.

پس از همه مقدمه‌چینی‌ها، فصل ۱۳ کتاب Mathematics of Machine Learning، بهینه‌سازی الگوریتمی را معرفی می‌کند که برای آموزش تقریباً هر شبکه عصبی استفاده می‌شود: گرادیان کاهشی (gradient descent). برای این کار، یاد می‌گیریم که چگونه مشتق، یکنوایی توابع را توصیف می‌کند و چگونه اکسترمم‌های محلی را می‌توان با مشتقات مرتبه اول و دوم مشخص کرد.

فصل ۱۴ کتاب Mathematics of Machine Learning، انتگرال‌گیری مطالعه ما را از توابع تک‌متغیره به پایان می‌رساند. به طور شهودی، انتگرال‌گیری (Integration) مساحت (علامت‌دار) زیر نمودار توابع را توصیف می‌کند، اما با بررسی دقیق‌تر، مشخص می‌شود که معکوس مشتق‌گیری نیز هست. در یادگیری ماشین (و در واقع در تمام ریاضیات)، انتگرال‌ها احتمالات مختلف، امید ریاضی و سایر مقادیر ضروری را توصیف می‌کنند.

اکنون که می‌دانیم چگونه حسابان در متغیرهای منفرد انجام می‌شود، فصل ۱۵ کتاب Mathematics of Machine Learning ما را به دنیای توابع چند متغیره هدایت می‌کند، جایی که یادگیری ماشین در آن انجام می‌شود. در آنجا، ما طیف وسیعی از توابع را داریم: توابع اسکالر-برداری، بردار-اسکالر و بردار-برداری.

در فصل ۱۶ کتاب Mathematics of Machine Learning، مشتقات و گرادیان‌ها، سفر خود را ادامه می‌دهیم و بر دشواری‌های تعمیم مشتق‌گیری به توابع چند متغیره غلبه می‌کنیم. در اینجا، سه نوع مشتق داریم: جزئی (partial)، کلی (total) و جهت‌دار (directional)؛ که منجر به بردار گرادیان و ماتریس‌های ژاکوبین (Jacobian) و هسیان (Hessian) می‌شوند.

همانطور که انتظار می‌رود، بهینه‌سازی در چندین متغیر نیز کمی پیچیده‌تر است. این مسئله با فصل ۱۷ کتاب Mathematics of Machine Learning، بهینه‌سازی در چندین متغیر، که در آن همتای آزمون مشتق دوم تک‌متغیره را یاد می‌گیریم، و گرادیان کاهشی قدرتمند را در شکل نهایی خود پیاده‌سازی می‌کنیم، و مطالعه ما از حسابان به پایان می‌رسد.

اکنون که درک مکانیکی از یادگیری ماشین داریم، فصل ۱۸ کتاب Mathematics of Machine Learning، احتمال چیست؟ به ما نشان می‌دهد که چگونه تحت عدم قطعیت استدلال و مدل‌سازی کنیم. از نظر ریاضی، فضاهای احتمال (probability spaces) با اکسیوم‌های کولموگروف (Kolmogorov axioms) تعریف می‌شوند، و همچنین ابزارهایی را یاد خواهیم گرفت که به ما امکان می‌دهد با مدل‌های احتمالی کار کنیم.

فصل ۱۹ کتاب Mathematics of Machine Learning متغیرهای تصادفی و توزیع‌ها را معرفی می‌کند، که به ما امکان می‌دهد نه تنها ابزارهای حسابان را به نظریه احتمال بیاوریم، بلکه مدل‌های احتمالی را در دنباله‌ها یا توابع فشرده کنیم.

سرانجام، در فصل ۲۰ کتاب Mathematics of Machine Learning، مفهوم امید ریاضی (The expected value) را می‌آموزیم، که مدل‌ها و توزیع‌های احتمالی را با میانگین‌ها، واریانس‌ها، کوواریانس‌ها و آنتروپی کمی‌سازی می‌کند.

سرفصل‌های کتاب Mathematics of Machine Learning:

  • Cover
  • Title Page
  • Copyright Page
  • Foreword
  • Contributors
  • Table of Contents
  • Introduction
  • Part 1: Linear Algebra
    • Chapter 1: Vectors and Vector Spaces
    • Chapter 2: The Geometric Structure of Vector Spaces
    • Chapter 3: Linear Algebra in Practice
    • Chapter 4: Linear Transformations
    • Chapter 5: Matrices and Equations
    • Chapter 6: Eigenvalues and Eigenvectors
    • Chapter 7: Matrix Factorizations
    • Chapter 8: Matrices and Graphs
    • References
  • Part 2: Calculus
    • Chapter 9: Functions
    • Chapter 10: Numbers, Sequences, and Series
    • Chapter 11: Topology, Limits, and Continuity
    • Chapter 12: Differentiation
    • Chapter 13: Optimization
    • Chapter 14: Integration
    • References
  • Part 3: Multivariable Calculus
    • Chapter 15: Multivariable Functions
    • Chapter 16: Derivatives and Gradients
    • Chapter 17: Optimization in Multiple Variables
    • References
  • Part 4: Probability Theory
    • Chapter 18: What is Probability?
    • Chapter 19: Random Variables and Distributions
    • Chapter 20: The Expected Value
    • References
  • Part 5: Appendix
    • Appendix A: It’s Just Logic
    • Appendix B: The Structure of Mathematics
    • Appendix C: Basics of Set Theory
    • Appendix D: Complex Numbers
  • Packt Page
  • Other Books You May Enjoy
  • Index

جهت دانلود کتاب Mathematics of Machine Learning می‌توانید پس از پرداخت، دریافت کنید.

فرمت کتاب

epub, PDF

ویرایش

First

ISBN

978-1-83702-787-3

تعداد صفحات

730

انتشارات

سال انتشار

حجم

40.09 مگابایت, 94.97 مگابایت

نویسنده

دیدگاهها

هیچ دیدگاهی برای این محصول نوشته نشده است.

اولین نفری باشید که دیدگاهی را ارسال می کنید برای “کتاب Mathematics of Machine Learning”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

خرید کتاب Mathematics of Machine Learning:

۳۶,۰۰۰ تومان

  • نسخه کتاب فعلی به زبان لاتین می‌باشد.
  • کتاب به صورت فایل می‌باشد و پس از خرید بلافاصله در دسترس شما قرار می‌گیرد.
  • قبل از خرید، قسمت توضیحات تکمیلی مربوط به هر کتاب را مطالعه کنید.
  • در صورت هرگونه سؤال با ایمیل و یا شماره پشتیبانی سایت در تماس باشید.
  • درگاه پرداخت رمزارز نیز برای هموطنان خارج از کشور فعال است.
دسته‌یندی کتاب‌ها:
سبد خرید
به بالا بروید