کتاب Mathematics of Machine Learning: Master linear algebra, calculus, and probability for machine learning (ریاضیات یادگیری ماشین: فراگیری جبر خطی، حسابان، و احتمال برای یادگیری ماشین) یک راهنمای جامع برای هر کسی است که میخواهد مبانی ریاضیاتی لازم برای درک عمیق یادگیری ماشین را فرا گیرد. این کتاب به طور خاص بر سه ستون اصلی ریاضیات مرتبط با یادگیری ماشین تمرکز دارد: جبر خطی (که برای درک دادهها و عملیات برداری ضروری است)، حسابان (برای بهینهسازی الگوریتمها و درک گرادیانها) و نظریه احتمال (برای مدلسازی عدم قطعیت و استنتاج آماری).
کتاب Mathematics of Machine Learning با ارائه توضیحات واضح و مثالهای کاربردی، به خوانندگان کمک میکند تا نه تنها مفاهیم ریاضی را درک کنند، بلکه نحوه اعمال آنها را در الگوریتمها و مدلهای یادگیری ماشین نیز بیاموزند و به این ترتیب، پایهای محکم برای موفقیت در این حوزه رو به رشد فراهم میکند.
در ادامه مقدمهای از کتاب Mathematics of Machine Learning را از زبان نویسنده شرح خواهیم داد.
مقدمهای بر کتاب Mathematics of Machine Learning:
چرا باید ریاضیات یاد بگیرم؟ – این سوالی است که روزانه از من پرسیده میشود.
خب، مجبور نیستید. اما باید یاد بگیرید!
در ظاهر، ریاضیات پیشرفته در مهندسی نرمافزار و یادگیری ماشین در محیط تولید تأثیری ندارد. لازم نیست گرادیانها را محاسبه کنید، معادلات خطی را حل کنید، یا مقادیر ویژه را با دست پیدا کنید. الگوریتمهای اساسی و پیشرفته در کتابخانهها و APIها انتزاعی شدهاند و تمام کارهای سخت را برای شما انجام میدهند.
امروزه، پیادهسازی یک شبکه عصبی عمیق پیشرفته تقریباً معادل ساخت یک شیء در PyTorch، بارگذاری وزنهای از پیش آموزشدیده، و اجازه دادن به دادهها برای عبور از مدل است. درست مانند تمام پیشرفتهای تکنولوژیکی، این یک شمشیر دو لبه است. از یک طرف، چارچوبهایی که نمونهسازی سریع و توسعه را تسریع میکنند، یادگیری ماشین را در عمل ممکن میسازند. بدون آنها، شاهد انفجار یادگیری عمیق در دهه گذشته نبودیم.
از سوی دیگر، انتزاعات سطح بالا موانعی بین ما و فناوری زیربنایی هستند. دانش در سطح کاربر تنها زمانی کافی است که در مسیرهای آشنا حرکت میکنیم. (یا تا زمانی که چیزی خراب شود.)
اگر قانع نشدهاید، بیایید یک آزمایش فکری انجام دهیم! تصور کنید به کشوری جدید مهاجرت میکنید بدون اینکه زبان را بلد باشید و از شیوه زندگی آن آگاه باشید. با این حال، یک گوشی هوشمند و یک اتصال اینترنتی قابل اعتماد دارید.
چگونه شروع به کاوش میکنید؟
با گوگل مپس و یک کارت اعتباری، میتوانید کارهای فوقالعادهای در آنجا انجام دهید: شهر را کاوش کنید، در رستورانهای عالی غذا بخورید و اوقات خوشی داشته باشید. میتوانید هر روز بدون اینکه کلمهای صحبت کنید خرید کنید: فقط وسایل را در سبد خود بگذارید و کارت خود را در صندوق بکشید.
پس از چند ماه، شروع به یادگیری کمی از زبان نیز خواهید کرد – چیزهای سادهای مانند احوالپرسی یا معرفی خودتان. شروع خوبی است!
راهحلهای داخلی برای کارهای روزمره وجود دارند که به راحتی کار میکنند – خدمات سفارش غذا، حمل و نقل عمومی و غیره. با این حال، در نقطهای، اینها خراب میشوند. به عنوان مثال، شما باید با پیک تماس بگیرید که بستهی شما را به درب اشتباه تحویل داده است. اگر ماشین کرایهای شما خراب شود، باید درخواست کمک کنید.
شما ممکن است بخواهید کارهای بیشتری انجام دهید. شغلی پیدا کنید، یا حتی کسب و کار خودتان را راهاندازی کنید. برای آن، باید بتوانید به طور موثر با دیگران ارتباط برقرار کنید.
یادگیری زبان زمانی که قصد دارید چند ماه در جایی زندگی کنید، ضروری نیست. با این حال، اگر میخواهید بقیه عمرتان را در آنجا بمانید، این یکی از بهترین سرمایهگذاریهایی است که میتوانید انجام دهید.
حالا، کشور را با یادگیری ماشین و زبان را با ریاضیات جایگزین کنید.
واقعیت این است که الگوریتمها به زبان ریاضیات نوشته شدهاند. برای تسلط بر الگوریتمها، باید به این زبان صحبت کنید.
کتاب Mathematics of Machine Learning در مورد چیست؟
“شباهتی بین شناخت یک شهر و تسلط بر یک حوزه دانش وجود دارد؛ از هر نقطه مشخصی باید بتوان به هر نقطه دیگری رسید. حتی بهتر است اگر بتوان بلافاصله کوتاهترین و راحتترین مسیر را از یک نقطه به نقطه دیگر طی کرد.”
— جرج پولیا و گابور شگو، در مقدمه کتاب افسانهای «مسائل و قضایا در تحلیل»
نقل قول بالا یکی از محبوبترین نقل قولهای من است. برای من، این میگوید که دانش بر پایههای بسیاری استوار است. همانطور که یک صندلی چهار پایه دارد، یک مهندس یادگیری ماشین با دانش گسترده نیز مجموعه مهارتهای وسیعی دارد که او را قادر میسازد در کار خود موثر باشد. هر یک از ما بر مجموعهای متعادل از مهارتها تمرکز میکنیم، و ریاضیات برای بسیاری یک افزودنی عالی است. شما میتوانید یادگیری ماشین را بدون ریاضیات پیشرفته شروع کنید، اما در نقطهای از حرفه خود، آشنایی با پیشزمینه ریاضیاتی یادگیری ماشین میتواند به شما کمک کند مهارتهای خود را به سطح بعدی برسانید.
دو مسیر برای تسلط در یادگیری عمیق وجود دارد. یکی از بخشهای عملی شروع میشود و دیگری از تئوری. هر دو کاملاً امکانپذیر هستند، و در نهایت، به هم میپیوندند. کتاب Mathematics of Machine Learning برای کسانی است که مسیر عملی و کاربردی را شروع کردهاند، مانند دانشمندان داده، مهندسان یادگیری ماشین، یا حتی توسعهدهندگان نرمافزار علاقهمند به این موضوع.
کتاب Mathematics of Machine Learning یک رساله ریاضیاتی ۱۰۰% خالص نیست. در برخی نقاط، برای ایجاد تعادل بین وضوح و صحت ریاضی، میانبرهایی را ایجاد خواهم کرد. هدف من این است که لحظات “یافتم!” را به شما بدهم و به شما کمک کنم تا تصویر بزرگتر را درک کنید، به جای اینکه شما را برای دکترا در ریاضیات آماده کنم.
اکثر کتابهای یادگیری ماشینی که من خواندهام به یکی از دو دسته زیر میافتند:
- تمرکز بر کاربردهای عملی، اما نامشخص و نادقیق با مفاهیم ریاضیاتی.
- تمرکز بر تئوری، شامل ریاضیات سنگین با تقریباً هیچ کاربرد واقعی.
من میخواهم کتاب Mathematics of Machine Learning بهترین هر دو رویکرد را ارائه دهد: مقدمهای محکم بر مفاهیم ریاضیاتی پایه و پیشرفته، با در نظر داشتن یادگیری ماشین در هر زمان.
هدف من تنها پوشش اصول اولیه نیست، بلکه ارائه طیف وسیعی از دانش است. در تجربه من، برای تسلط بر یک موضوع، باید هم عمیق و هم گسترده بود. پوشش تنها اصول بسیار ضروری ریاضیات مانند راه رفتن روی بند باریک خواهد بود. به جای انجام یک عمل تعادلی هر بار که در آینده با یک موضوع ریاضیاتی مواجه میشوید، میخواهم شما پایهای محکم به دست آورید. چنین اطمینانی میتواند شما را بسیار جلو ببرد و شما را از دیگران متمایز کند.
در طول سفرمان، ما از یک نقشه راه پیروی خواهیم کرد که ما را از طریق موارد زیر میبرد:
- جبر خطی (Linear algebra)
- حسابان (Calculus)
- حسابان چند متغیره (Multivariable calculus)
- نظریه احتمال (Probability theory)
سفرمان را با جبر خطی آغاز خواهیم کرد. در یادگیری ماشین، دادهها با بردارها نمایش داده میشوند. آموزش یک الگوریتم یادگیری همان یافتن نمایشهای توصیفیتر از دادهها از طریق مجموعهای از تبدیلات است.
جبر خطی مطالعه فضاهای برداری و تبدیلات آنها است.
به بیان ساده، یک شبکه عصبی فقط تابعی است که دادهها را به یک نمایش سطح بالا نگاشت میکند. تبدیلات خطی، بلوکهای ساختمانی اساسی اینها هستند. توسعه درک خوبی از آنها بسیار مفید خواهد بود، زیرا آنها در همه جای یادگیری ماشین حضور دارند.
در حالی که جبر خطی نشان میدهد که چگونه مدلهای پیشبینی را توصیف کنیم، حسابان ابزارهایی برای تطبیق آنها با دادهها دارد. هنگامی که یک شبکه عصبی را آموزش میدهید، تقریباً مطمئناً از گرادیان کاهشی (gradient descent) استفاده میکنید، تکنیکی که ریشه در حسابان و مطالعه مشتقگیری دارد.
علاوه بر مشتقگیری، “معکوس” آن نیز بخش اصلی حسابان است: انتگرالگیری. انتگرالها مقادیر ضروری مانند امید ریاضی، آنتروپی، میانگین مربعات خطا و غیره را بیان میکنند. آنها پایههای احتمال و آمار را فراهم میکنند.
با این حال، هنگام انجام یادگیری ماشین، ما با توابعی با میلیونها متغیر سروکار داریم. در ابعاد بالاتر، همه چیز متفاوت عمل میکند. اینجا جایی است که حسابان چند متغیره وارد میشود، جایی که مشتقگیری و انتگرالگیری با این فضاها تطبیق داده میشوند.
با داشتن جبر خطی و حسابان، آماده توصیف و آموزش شبکههای عصبی هستیم. با این حال، فاقد درک استخراج الگوها از دادهها هستیم. چگونه از آزمایشات و مشاهدات نتیجهگیری میکنیم؟ چگونه الگوها را در آنها توصیف و کشف کنیم؟ اینها توسط نظریه احتمال و آمار، منطق تفکر علمی، پاسخ داده میشوند. در فصل آخر، منطق باینری کلاسیک را گسترش میدهیم و یاد میگیریم که با عدم قطعیت در پیشبینیهایمان برخورد کنیم.
چگونه کتاب Mathematics of Machine Learning را بخوانیم؟
ریاضیات از ساختار «تعریف-قضیه-اثبات» پیروی میکند که در ابتدا ممکن است دشوار باشد. اگر با چنین جریانی ناآشنا هستید، نگران نباشید. من اکنون یک مقدمه ملایم ارائه خواهم داد.
اساساً، ریاضیات مطالعه اشیاء انتزاعی (مانند توابع) از طریق ویژگیهای اساسی آنها است. به جای مشاهدات تجربی، ریاضیات بر منطق استوار است، که آن را جهانی میکند. اگر میخواهیم از ابزار قدرتمند منطق استفاده کنیم، اشیاء ریاضیاتی باید دقیقاً تعریف شوند. تعاریف در کادرهایی مانند این که در ادامه میآید، ارائه میشوند.
تعریف ۱. (یک تعریف نمونه)
تعاریف اینگونه ظاهر میشوند.
با توجه به یک تعریف، نتایج به صورت گزارههای «اگر A، آنگاه B» فرموله میشوند، که در آن A مقدمه و B نتیجه است. چنین نتایجی قضیه نامیده میشوند. برای مثال، اگر یک تابع مشتقپذیر باشد، آنگاه پیوسته نیز هست. اگر یک تابع محدب باشد، آنگاه دارای مینیمم سراسری است. اگر تابعی داشته باشیم، آنگاه میتوانیم آن را با دقت دلخواه با استفاده از یک شبکه عصبی تکلایه تقریب بزنیم. الگو را متوجه میشوید. قضایا هسته اصلی ریاضیات هستند.
ما باید یک استدلال منطقی محکم برای پذیرش اعتبار یک گزاره ارائه دهیم، استدلالی که نتیجه را از مقدمه استنتاج کند. این اثبات نامیده میشود که مسئول منحنی یادگیری شیبدار ریاضیات است. بر خلاف سایر رشتههای علمی، اثباتها در ریاضیات گزارههای غیرقابل انکار هستند که برای همیشه ثابت شدهاند. در یک نکته عملی، به این کادرها توجه کنید.
قضیه ۱. (یک قضیه نمونه)
فرض کنید x یک شیء ریاضیاتی فانتزی است. دو گزاره زیر برقرارند.
(الف) اگر A، آنگاه B.
(ب) اگر C و D، آنگاه E.
اثبات. اینجاست که اثبات میآید.
برای افزایش تجربه یادگیری، اغلب اطلاعات مفید اما نه کاملاً ضروری را در قالب «ملاحظات» (remarks) قرار خواهم داد.
ملاحظه ۱. (یک ملاحظه هیجانانگیز)
ریاضیات فوقالعاده است. به خاطر آن مهندس بهتری خواهید شد.
موثرترین راه یادگیری ساختن چیزها و به کار بردن تئوری در عمل است. در ریاضیات، این تنها راه یادگیری است. این بدان معناست که باید متن را با دقت بخوانید. هیچ چیز را به دلیل نوشته شدن در آن مسلم نگیرید. هر جمله را با دقت بررسی کنید. هر استدلال و محاسبه را جداگانه تحلیل کنید. سعی کنید قضایا را خودتان قبل از خواندن اثباتها اثبات کنید.
با این اوصاف، بیایید شروع کنیم! کمربندها را ببندید؛ جاده طولانی و پر از پیچ و خم است.
آنچه کتاب Mathematics of Machine Learning پوشش میدهد:
فصل ۱، بردارها و فضاهای برداری به توضیح بردارها و نحوه کار با آنها میپردازد. از مثالهای ملموس گرفته تا تعاریف دقیق ریاضی و سپس پیادهسازیها، به درک فضاهای برداری و آرایههای NumPy (که برای نمایش کارآمد بردارها استفاده میشوند) میپردازیم. علاوه بر اصول، مطالب زیر را نیز خواهیم آموخت:
فصل ۲ کتاب Mathematics of Machine Learning، ساختار هندسی فضاهای برداری با بررسی مفاهیم نُرمها (Norms)، فاصلهها، ضرب داخلی، زوایا و تعامد، به جلو حرکت میکند و تعریف جبری فضاهای برداری را با ساختار هندسی ضروری تکمیل میکند. اینها فقط ابزارهایی برای تجسم نیستند؛ آنها نقش حیاتی در یادگیری ماشین ایفا میکنند. همچنین با اولین الگوریتم خود، روش متعامدسازی گرام-اشمیت (Gram-Schmidt orthogonalization method)، آشنا میشویم که هر مجموعهای از بردارها را به یک پایه متعامد نرمال (orthonormal basis) تبدیل میکند.
در فصل ۳ کتاب Mathematics of Machine Learning، جبر خطی در عمل، یک بار دیگر NumPy را به کار میگیریم و همه چیزهایی را که تا کنون یاد گرفتهایم پیادهسازی میکنیم. در اینجا، یاد میگیریم که چگونه در عمل با آرایههای NumPy با کارایی بالا کار کنیم: عملیات، پخش (broadcasting)، توابع، که در نهایت به پیادهسازی گام به گام الگوریتم گرام-اشمیت منجر میشود. این همچنین اولین باری است که با ماتریسها، ستونهای اصلی جبر خطی، مواجه میشویم.
فصل ۴ کتاب Mathematics of Machine Learning، تبدیلات خطی درباره ماهیت واقعی ماتریسها است؛ یعنی تبدیلات حافظ ساختار بین فضاهای برداری. به این ترتیب، چیزهای به ظاهر مبهم – مانند تعریف ضرب ماتریس – ناگهان معنی پیدا میکنند. یک بار دیگر، ما از ساختارهای جبری به ساختارهای هندسی میجهیم، که به ما امکان میدهد ماتریسها را به عنوان تبدیلات مطالعه کنیم که فضای زیرین خود را تغییر شکل میدهند. همچنین به یکی از مهمترین توصیفکنندههای ماتریسها خواهیم پرداخت: دترمینانها، که نحوه تأثیر تبدیلات خطی زیرین بر حجم فضاها را توصیف میکنند.
فصل ۵ کتاب Mathematics of Machine Learning، ماتریسها و معادلات سومین (و برای ما، آخرین) چهره ماتریسها را به عنوان سیستمهای معادلات خطی معرفی میکند. در این فصل از کتاب Mathematics of Machine Learning، ابتدا یاد میگیریم که چگونه سیستمهای معادلات خطی را با دست با استفاده از حذف گاوسی (Gaussian elimination) حل کنیم، سپس با دانش تازه خود از جبر خطی آن را فوقالعاده تقویت میکنیم و به تجزیه LU (LU decomposition) قدرتمند دست مییابیم. با کمک تجزیه LU، به شدت تلاش میکنیم و به سرعتی حدود ۷۰۰۰۰ برابر در محاسبه دترمینانها دست پیدا میکنیم.
فصل ۶ کتاب Mathematics of Machine Learning، دو مورد از مهمترین توصیفکنندههای ماتریسها را معرفی میکند: مقادیر ویژه (eigenvalues) و بردارهای ویژه (eigenvectors). چرا به آنها نیاز داریم؟
زیرا در فصل ۷ کتاب Mathematics of Machine Learning، تجزیه ماتریسها، میتوانیم با کمک آنها به اوج جبر خطی برسیم. ابتدا، نشان میدهیم که ماتریسهای حقیقی و متقارن را میتوان با ساختن یک پایه از بردارهای ویژه آنها به شکل قطری نوشت، که به عنوان قضیه تجزیه طیفی (spectral decomposition theorem) شناخته میشود. به نوبه خود، یک کاربرد هوشمندانه از تجزیه طیفی منجر به تجزیه مقدار منفرد (singular value decomposition) میشود، که مهمترین نتیجه منفرد جبر خطی است.
فصل ۸ کتاب Mathematics of Machine Learning، ماتریسها و گرافها بخش جبر خطی کتاب را با مطالعه ارتباط پربار بین جبر خطی و نظریه گراف میبندد. با نمایش ماتریسها به عنوان گرافها، میتوانیم نتایج عمیقی مانند فرم نرمال فروبنیوس (Frobenius normal form) را نشان دهیم، یا حتی درباره مقادیر ویژه و بردارهای ویژه گرافها صحبت کنیم.
در فصل ۹ کتاب Mathematics of Machine Learning، توابع، نگاهی دقیق به توابع میاندازیم، مفهومی که تا کنون به صورت شهودی از آن استفاده کردهایم. این بار، شهود را از نظر ریاضی دقیق میکنیم و میآموزیم که توابع اساساً پیکانهایی بین نقاط هستند.
فصل ۱۰ کتاب Mathematics of Machine Learning، اعداد، دنبالهها و سریها به اعماق مفهوم اعداد میپردازد. هر گام از اعداد طبیعی به سمت اعداد حقیقی نشاندهنده یک جهش مفهومی است که در مطالعه دنبالهها و سریها به اوج خود میرسد.
با فصل ۱۱ کتاب Mathematics of Machine Learning، توپولوژی، حد و پیوستگی، تقریباً به بخشهای واقعاً جالب رسیدهایم. با این حال، در حسابان، اشیاء، مفاهیم و ابزارها اغلب بر حسب حد و توابع پیوسته توصیف میشوند. بنابراین، نگاهی دقیق به چیستی آنها میاندازیم.
فصل ۱۲ کتاب Mathematics of Machine Learning در مورد مهمترین مفهوم در حسابان است: مشتقگیری (Differentiation). در این فصل، یاد میگیریم که مشتق یک تابع ۱) شیب خط مماس و ۲) بهترین تقریب خطی محلی برای یک تابع را توصیف میکند. از جنبه عملی، همچنین به نحوه رفتار مشتقات نسبت به عملیات، مهمتر از همه ترکیب تابع، نگاه میکنیم که منجر به قاعده زنجیرهای (chain rule) ضروری میشود، که جزء لاینفک انتشار معکوس (backpropagation) است.
پس از همه مقدمهچینیها، فصل ۱۳ کتاب Mathematics of Machine Learning، بهینهسازی الگوریتمی را معرفی میکند که برای آموزش تقریباً هر شبکه عصبی استفاده میشود: گرادیان کاهشی (gradient descent). برای این کار، یاد میگیریم که چگونه مشتق، یکنوایی توابع را توصیف میکند و چگونه اکسترممهای محلی را میتوان با مشتقات مرتبه اول و دوم مشخص کرد.
فصل ۱۴ کتاب Mathematics of Machine Learning، انتگرالگیری مطالعه ما را از توابع تکمتغیره به پایان میرساند. به طور شهودی، انتگرالگیری (Integration) مساحت (علامتدار) زیر نمودار توابع را توصیف میکند، اما با بررسی دقیقتر، مشخص میشود که معکوس مشتقگیری نیز هست. در یادگیری ماشین (و در واقع در تمام ریاضیات)، انتگرالها احتمالات مختلف، امید ریاضی و سایر مقادیر ضروری را توصیف میکنند.
اکنون که میدانیم چگونه حسابان در متغیرهای منفرد انجام میشود، فصل ۱۵ کتاب Mathematics of Machine Learning ما را به دنیای توابع چند متغیره هدایت میکند، جایی که یادگیری ماشین در آن انجام میشود. در آنجا، ما طیف وسیعی از توابع را داریم: توابع اسکالر-برداری، بردار-اسکالر و بردار-برداری.
در فصل ۱۶ کتاب Mathematics of Machine Learning، مشتقات و گرادیانها، سفر خود را ادامه میدهیم و بر دشواریهای تعمیم مشتقگیری به توابع چند متغیره غلبه میکنیم. در اینجا، سه نوع مشتق داریم: جزئی (partial)، کلی (total) و جهتدار (directional)؛ که منجر به بردار گرادیان و ماتریسهای ژاکوبین (Jacobian) و هسیان (Hessian) میشوند.
همانطور که انتظار میرود، بهینهسازی در چندین متغیر نیز کمی پیچیدهتر است. این مسئله با فصل ۱۷ کتاب Mathematics of Machine Learning، بهینهسازی در چندین متغیر، که در آن همتای آزمون مشتق دوم تکمتغیره را یاد میگیریم، و گرادیان کاهشی قدرتمند را در شکل نهایی خود پیادهسازی میکنیم، و مطالعه ما از حسابان به پایان میرسد.
اکنون که درک مکانیکی از یادگیری ماشین داریم، فصل ۱۸ کتاب Mathematics of Machine Learning، احتمال چیست؟ به ما نشان میدهد که چگونه تحت عدم قطعیت استدلال و مدلسازی کنیم. از نظر ریاضی، فضاهای احتمال (probability spaces) با اکسیومهای کولموگروف (Kolmogorov axioms) تعریف میشوند، و همچنین ابزارهایی را یاد خواهیم گرفت که به ما امکان میدهد با مدلهای احتمالی کار کنیم.
فصل ۱۹ کتاب Mathematics of Machine Learning متغیرهای تصادفی و توزیعها را معرفی میکند، که به ما امکان میدهد نه تنها ابزارهای حسابان را به نظریه احتمال بیاوریم، بلکه مدلهای احتمالی را در دنبالهها یا توابع فشرده کنیم.
سرانجام، در فصل ۲۰ کتاب Mathematics of Machine Learning، مفهوم امید ریاضی (The expected value) را میآموزیم، که مدلها و توزیعهای احتمالی را با میانگینها، واریانسها، کوواریانسها و آنتروپی کمیسازی میکند.
سرفصلهای کتاب Mathematics of Machine Learning:
- Cover
- Title Page
- Copyright Page
- Foreword
- Contributors
- Table of Contents
- Introduction
- Part 1: Linear Algebra
- Chapter 1: Vectors and Vector Spaces
- Chapter 2: The Geometric Structure of Vector Spaces
- Chapter 3: Linear Algebra in Practice
- Chapter 4: Linear Transformations
- Chapter 5: Matrices and Equations
- Chapter 6: Eigenvalues and Eigenvectors
- Chapter 7: Matrix Factorizations
- Chapter 8: Matrices and Graphs
- References
- Part 2: Calculus
- Chapter 9: Functions
- Chapter 10: Numbers, Sequences, and Series
- Chapter 11: Topology, Limits, and Continuity
- Chapter 12: Differentiation
- Chapter 13: Optimization
- Chapter 14: Integration
- References
- Part 3: Multivariable Calculus
- Chapter 15: Multivariable Functions
- Chapter 16: Derivatives and Gradients
- Chapter 17: Optimization in Multiple Variables
- References
- Part 4: Probability Theory
- Chapter 18: What is Probability?
- Chapter 19: Random Variables and Distributions
- Chapter 20: The Expected Value
- References
- Part 5: Appendix
- Appendix A: It’s Just Logic
- Appendix B: The Structure of Mathematics
- Appendix C: Basics of Set Theory
- Appendix D: Complex Numbers
- Packt Page
- Other Books You May Enjoy
- Index
جهت دانلود کتاب Mathematics of Machine Learning میتوانید پس از پرداخت، دریافت کنید.
دیدگاهها
هیچ دیدگاهی برای این محصول نوشته نشده است.