کتاب Math and Architectures of Deep Learning (ریاضیات و معماری یادگیری عمیق) ریاضی، تئوری و اصول برنامهنویسی مدلهای یادگیری عمیق را که در کنار هم قرار گرفتهاند را آموزش میدهد و سپس آنها را با کدهای پایتون با حاشیهنویسی خوب عملی میکند. شما از جبر، حساب دیفرانسیل و انتگرال و آمار تا معماریهای پیشرفته DL برگرفته از آخرین تحقیقات پیشرفت خواهید کرد.
در ادامه مقدمهای از کتاب Math and Architectures of Deep Learning را از زبان نویسنده شرح خواهیم داد.
مقدمهای بر کتاب Math and Architectures of Deep Learning:
هوش مصنوعی (یادگیری ماشینی یا یادگیری عمیق برای خودیها) در این برهه از زمان بسیار خشمگین است. رسانهها مملو از پیشبینیهای مشتاق و/یا پارانوئید در مورد جهانی است که توسط این فناوری جدید اداره میشود و کاملاً موجه است. این یک انقلاب دانش است که در مقابل چشمان ما اتفاق میافتد.
برای دههها در دوره دکتری خود روی مشکلات بینایی کامپیوتری و پردازش تصویر کار کردم، سپس در Adobe Systems، سپس در Google، و سپس در Drishti Technologies (استارتآپ Silicon Valley که من یکی از بنیانگذاران آن بودم)، در لبههای خونریزی بودم. این انقلاب برای مدت طولانی من نه تنها چیزهایی را دیدهام که کار میکند، بلکه – شاید مهمتر – چه چیزی کار نمیکند و چه چیزی تقریباً کار میکند.
این به من دیدگاه منحصر به فردی میدهد. اغلب هنگام تلاش برای حل مسائل عملی، هیچ یک از نظریههای کتاب درسی به طور مستقیم کار نمیکنند. ما بایدایدههای مختلف را با هم ترکیب کنیم تا یک معجون برنده ایجاد کنیم. این نیاز به احساسی دارد که چه چیزی کار میکند و چرا و چه چیزی کار نمیکند و چرا. این احساس، این درک از عملکرد درونی نظریه ماشین/تئوری یادگیری عمیق، همراه با بینش و شهودی است کهامیدوارم بتوانم به خوانندگانم منتقل کنم.
این مرا به نکته دیگری میرساند. به دلیل محبوبیت موضوع، حجم زیادی از مواد از نوع «یادگیری عمیق-ساخته-آسان» به صورت چاپی و/یا آنلاین وجود دارد. این مقالات حق مطلب را رعایت نمیکنند. واکنش من به آنها این است که \”همه چیز باید تا حد امکان ساده باشد، اما نه سادهتر. \” یادگیری عمیق را نمیتوان با مرور مجموعه کوچکی از دستور العملهای ساده شده که تمام ریاضیات از آن حذف شده است، آموخت.
این یک مبحث ریاضی است و تسلط مستلزم درک ریاضی در کنار برنامهنویسی است. آنچه مورد نیاز است منبعی است که این مبحث را با مقدار لازم ریاضی – نه بیشتر و نه کمتر – با ارتباط بین یادگیری عمیق و ریاضی که به صراحت بیان شده است، ارائه دهد. این دقیقاً همان چیزی است که این کتاب با ارائه دوگانه ریاضیات و تکه کدهای مربوط به PyTorch سعی در ارائه آن دارد.
آیا شما از آن دسته افرادی هستید که میخواهند بدانند چرا و چگونه کار میکنند؟ آیا به جای احساس رضایت و حتی سپاسگزاری از اینکه ابزاری مشکل موجود را حل میکند، سعی میکنید بفهمید که ابزار واقعاً چه کاری انجام میدهد، چرا رفتار خاصی دارد و آیا در شرایط مختلف کار میکند؟ اگر بله، شما همدردی ما را دارید – زندگی برای شما آرام نخواهد بود. شما همچنین بهترین آرزوهای ما را دارید – این صفحات به شما تقدیم شده است.
اینترنت مملو از مدلهای یادگیری عمیق و سیستمهای آموزشی از پیش ساخته شده است که به سختی نیاز به درک اصول اساسی دارند. اما مشکلات عملی اغلب با هیچ یک از مدلهای در دسترس عموم سازگار نیستند. این شرایط مستلزم توسعه یک معماری مدل سفارشی است. توسعه چنین معماری مستلزم درک زیربنای ریاضی بهینهسازی و یادگیری ماشین است.
یادگیری عمیق و بینایی کامپیوتر موضوعات بسیار کاربردی هستند، بنابراین این سؤالات مرتبط هستند: \”آیا ریاضیات لازم است؟ آیا نباید وقت خود را صرف یادگیری، مثلاً نکات ظریف یادگیری عمیق پایتون کنیم؟ خوب، بله و نه.
مهارتهای برنامهنویسی (به ویژه پایتون) اجباری است. اما بدون درک شهودی از ریاضیات، چگونه و چرا و پاسخ به \”آیا میتوانم این مدل را دوباره استفاده کنم؟ \” برای شما قابل مشاهده نخواهد بود. ریاضیات به شما امکان میدهد انتزاعات پشت اجرا را ببینید. از بسیاری جهات، توانایی ایجاد انتزاعات، جوهره هوش بالاتر است.
انتزاع انسانهای اولیه را قادر ساخت تا ابزار حفاری و دفاع را از آنچه که صرفاً یک سنگ نوک تیز بود برای حیوانات دیگر خدایی کنند. انتزاع توصیف مکان چیزی با توجه به چیز دیگری که در محیط ثابت است (معروف به سیستمهای مختصات و بردارها) برای تمدن بشری شگفتی ایجاد کرده است. ریاضیات زبانی برای انتزاعات است: دقیقترین، موجزترین و واضحترین زبانی که بشر شناخته است.
از این رو، ریاضیات به عنوان ابزاری برای مطالعه یادگیری عمیق کاملاً ضروری است. اما باید به خاطر داشته باشیم که این یک ابزار است – نه بیشتر و نه کمتر. هدف نهایی تمام ریاضیات موجود در کتاب Math and Architectures of Deep Learning، نشان دادن شهودات و بینشهایی است که برای کسب تخصص در دنیای پیچیده یادگیری ماشین ضروری است.
یکی دیگر از ابزارهای به همان اندازه مهم زبان برنامهنویسی است – ما PyTorch را انتخاب کردهایم – که بدون آن نمیتوان از همه خرد استفاده کرد. این کتاب دو ستون یادگیری ماشین – ریاضیات و برنامهنویسی – را از طریق کدهای متعددی که معمولاً همراه با ریاضیات ارائه میشوند، به هم متصل میکند.
کتاب Math and Architectures of Deep Learning با کد کاملاً کاربردی در مخزن GitHub همراه است. ما از خوانندگان انتظار داریم که ریاضیات را با کاغذ و مداد کار کنند و سپس کد را روی رایانه اجرا کنند تا نتایج را بفهمند. این کتاب خواندن قبل از خواب نیست.
با (امیدوارم) موردی را برای مطالعه اصول اساسی ریاضی یادگیری عمیق و بینایی کامپیوتری، عجله میکنیم اضافه کنیم که دقت ریاضی هدف این کتاب نیست. در عوض، هدف ارائه بینشهای ریاضی (به ویژه هندسی) است که موضوع را شهودیتر و کمتر شبیه جادوی سیاه میکند. در عین حال، تمرینهای کدنویسی پایتون و کمکهای تجسم را در سراسر آن ارائه میکنیم.
بنابراین، خواندن کتاب Math and Architectures of Deep Learning را میتوان به عنوان یادگیری مبانی ریاضی یادگیری عمیق از طریق مثالهای هندسی و تمرینهای پایتون در نظر گرفت.
تسلط بر مطالب ارائه شده در کتاب Math and Architectures of Deep Learning شما را قادر میسازد تا مقالات تحقیقاتی یادگیری عمیق را درک کنید. این کتاب توضیحات عمیق و شهودی برخی از مقالات مهم امروزی را ارائه میدهد. یک پایه کد یادگیری عمیق را مطالعه و درک کنید. از تکه کدهای کتاب در کارهای خود استفاده کنید. برای یک مصاحبه به عنوان مهندس یا دانشمند یادگیری ماشین آماده شوید. تعیین کنید که آیا یک مشکل واقعی قابل یادگیری ماشینی/عمیق است یا خیر.
عیبیابی مشکلات کیفیت شبکه عصبی معماری شبکه عصبی مناسب را برای حل یک مشکل واقعی شناسایی کنید. به سرعت یک معماری نمونه اولیه را پیادهسازی کنید و یک مدل یادگیری عمیق را برای یک مشکل واقعی آموزش دهید.
یک کلمه احتیاط: ما اغلب با اصول اولیه شروع میکنیم اما به سرعت عمیقتر میشویم. خواندن هر فصل کتاب Math and Architectures of Deep Learning از ابتدا تا انتها مهم است، حتی اگر با مطالب ارائه شده در ابتدا آشنا باشید.
در نهایت، توجیه نهایی برای یک تلاش فکری، لذت بردن از پیگیری آن است. بنابراین، نویسندگان اگر از خواندن این کتاب لذت ببرید، خود را موفق میدانند.
چه کسی باید کتاب Math and Architectures of Deep Learning را بخواند؟
هدف این کتاب برای خواننده با درک پایهای از ریاضیات مهندسی و برنامهنویسی پایتون، با هدف جدی یادگیری یادگیری عمیق است. برای حداکثر سود، ریاضیات باید با کاغذ و مداد کار شود و برنامههای PyTorch روی کامپیوتر اجرا شوند. در اینجا برخی از پروفایلهای خواننده احتمالی وجود دارد:
فردی با مدرک مهندسی، علوم یا ریاضی، که احتمالاً مدتی پیش تحصیل کرده است، و در فکر تغییر شغل به یادگیری عمیق است. هیچ دانش قبلی در مورد یادگیری ماشین یا یادگیری عمیق مورد نیاز نیست.
یک متخصص یادگیری ماشینی در سطح ابتدایی یا متوسط که میخواهد بینش عمیقتری در مورد عملکرد تکنیکهای مختلف به دست آورد و از دانلود مدلها از اینترنت و آزمایش آنها فارغالتحصیل شود تا راهحلهای یادگیری عمیق سفارشی برای مشکلات واقعی ایجاد کند، و/یا توانایی را توسعه دهد. برای خواندن و درک مقالات تحقیقاتی در مورد موضوع. یک دانشجوی کالج در حال شروع یک حرفه یادگیری عمیق است.
نحوه سازماندهی کتاب Math and Architectures of Deep Learning: نقشه راه
این کتاب شامل ۱۴ فصل و یک پیوست است. به طور کلی تمام مفاهیم ریاضی از دیدگاه یادگیری ماشینی بررسی میشوند. بینشهای هندسی ارائه میشود و کد PyTorch در هر کجا که مناسب باشد ارائه میشود.
فصل ۱ کتاب Math and Architectures of Deep Learning مروری بر یادگیری ماشینی و یادگیری عمیق است. هدف آن ایجاد زمینه تصویر بزرگ در ذهن خواننده و آشنایی خواننده با برخی مفاهیم یادگیری ماشین مانند فضای ورودی، فضای ویژگی، آموزش مدل، معماری، از دست دادن و غیره است.
فصل ۲ کتاب Math and Architectures of Deep Learning مفاهیم اصلی بردارها و ماتریسها را پوشش میدهد که بلوکهای سازنده یادگیری ماشین را تشکیل میدهند. مفاهیم حاصلضرب نقطه، طولبرداری، متعامد، سیستمهای خطی، مقادیر ویژه و بردارهای ویژه، معکوس شبه مور-پنروز، مورب ماتریس، تجزیه طیفی و غیره را معرفی میکند.
فصل ۳ کتاب Math and Architectures of Deep Learning مروری بر مفاهیم حساببرداری که برای درک یادگیری عمیق لازم است را ارائه میدهد. ما گرادیانها، تقریب محلی توابع چند بعدی را از طریق بسط تیلور در فضاهای ابعادی دلخواه، ماتریسهای هسی، نزول گرادیان، تحدب، و ارتباط همه اینها باایده به حداقل رساندن تلفات در یادگیری ماشین معرفی میکنیم. این فصل از کتاب Math and Architectures of Deep Learning، اولین طعم ساخت مدل PyTorch را ارائه میدهد.
فصل ۴ کتاب Math and Architectures of Deep Learning تجزیه و تحلیل مؤلفههای اصلی (PCA) و تجزیه ارزش منفرد (SVD) – ابزارهای جبری خطی کلیدی برای یادگیری ماشین را معرفی میکند. ما پیادهسازی PyTorch یک سیستم بازیابی اسناد مبتنی بر SVD را ارائه میکنیم.
فصل ۵ کتاب Math and Architectures of Deep Learning مفاهیم اساسی توزیع احتمال را از دیدگاه یادگیری عمیق توضیح میدهد. ما به ویژگیهای مهم توزیعها مانند مقدار مورد انتظار، واریانس و کوواریانس نگاه میکنیم، و همچنین برخی از محبوبترین توزیعهای احتمال مانند گاوسی، برنولی، دوجملهای، چندجملهای، طبقهای و غیره را پوشش میدهیم. ما همچنین بسته توزیع PyTorch را معرفی میکنیم.
فصل ۶ کتاب Math and Architectures of Deep Learning ابزارهای بیزی برای یادگیری ماشین را بررسی میکند. ما قضیه بیز را مطالعه میکنیم، تکنیکهای تخمین پارامتر مدل مانند تخمین حداکثر درستنمایی (MLE) و حداکثر تخمین پسینی (MAP) را درک میکنیم. ما همچنین به متغیرهای پنهان، منظمسازی، MLE برای توزیعهای گاوسی، آنتروپی، آنتروپی متقاطع، آنتروپی شرطی و واگرایی KL نگاه میکنیم. در نهایت به مدلهای مخلوط گاوسی (GMM) و نحوه مدلسازی و تخمین پارامترهای یک GMM میپردازیم.
فصل ۷ کتاب Math and Architectures of Deep Learning غواصی عمیق در شبکههای عصبی. ما پرسپترونها، بلوک ساختمانی اصلی شبکههای عصبی را مطالعه میکنیم و اینکه چگونه پرسپترونهای چندلایه میتوانند مرزهای تصمیمگیری چند ضلعی دلخواه و همچنین عملیات گیت منطقی رایج را مدلسازی کنند. این آنها را قادر میسازد تا طبقهبندی را انجام دهند. ما در مورد قضیه تقریب جهانی Cybenko بحث میکنیم.
فصل ۸ کتاب Math and Architectures of Deep Learning توابع فعالسازی شبکههای عصبی، اهمیت و شهود پشت لایهها را پوشش میدهد. ما به انتشار رو به جلو و پس انتشار (با اثباتهای ریاضی) نگاه میکنیم و یک شبکه عصبی ساده را با PyTorch پیادهسازی میکنیم. ما مطالعه میکنیم که چگونه یک شبکه عصبی را از انتها به پایان آموزش دهیم.
فصل ۹ کتاب Math and Architectures of Deep Learning نگاهی عمیق به توابع مختلف از دست دادن ارائه میدهد که برای یادگیری مؤثر شبکههای عصبی بسیار مهم هستند. ما ریاضیات و شهودهای پشت توابع از دست دادن محبوب مانند از دست دادن آنتروپی متقاطع، از دست دادن رگرسیون، از دست دادن کانونی و غیره را مطالعه میکنیم و آنها را از طریق PyTorch پیادهسازی میکنیم. ما به بینشهای هندسی زیربنای تکنیکهای بهینهسازی مختلف مانند SGD، Nesterov، Adagrad، Adam و دیگران نگاه میکنیم. علاوه بر این، ما درک میکنیم که چرا منظمسازی مهم است و رابطه آن با MLE و MAP.
فصل ۱۰ کتاب Math and Architectures of Deep Learning کانولوشنها را معرفی میکند، یک اپراتور اصلی برای مدلهای بینایی کامپیوتری. ما پیچیدگیهای ۱ بعدی، ۲ بعدی و سه بعدی و همچنین پیچیدگیهای جابجا شده و تفاسیر شهودی آنها را مطالعه میکنیم. ما همچنین یک شبکه عصبی کانولوشنال ساده را از طریق PyTorch پیادهسازی میکنیم.
فصل ۱۱ کتاب Math and Architectures of Deep Learning معماری شبکههای عصبی مختلف را برای طبقهبندی تصاویر و تشخیصاشیا در تصاویر معرفی میکند. ما به چندین معماری طبقهبندی تصاویر مانند LeNet، VGG، Inception و Resnet با جزئیات نگاه میکنیم. ما همچنین یک مطالعه عمیق از R-CNN سریعتر برای تشخیصاشیا ارائه میدهیم.
فصل ۱۲ کتاب Math and Architectures of Deep Learning منیفولدها، خصوصیات منیفولدها مانند هومئومورفیسم، ویژگی هاوسدورف، و خاصیت قابل شمارش دوم را بررسی میکند و همچنین چگونگی پیوند منیفولدها با شبکههای عصبی را بررسی میکند.
فصل ۱۳ کتاب Math and Architectures of Deep Learning مقدمهای بر تخمین پارامتر بیزی ارائه میدهد. ما به تزریق باور قبلی در تخمین پارامتر و نحوه استفاده از آن در تنظیمات بدون نظارت/نیمه نظارت نگاه میکنیم. علاوه بر این، ما پیشینهای مزدوج و تخمین پارامترهای احتمال گاوسی را تحت شرایط میانگین و واریانسهای شناخته شده/ناشناخته درک میکنیم.
فصل ۱۴ کتاب Math and Architectures of Deep Learning به بررسی فضاهای پنهان و مدلسازی مولد میپردازد. ما نمای هندسی فضاهای نهفته و مزایای مدلسازی فضای نهان را درک میکنیم. نگاهی دیگر به PCA با این لنز جدید، همراه با مطالعه رمزگذارهای خودکار و رمزگذارهای خودکار متغیر میاندازیم.
ما مطالعه میکنیم که چگونه رمزگذارهای خودکار متغیر، فضای پنهان را منظم میکنند و از این رو ویژگیهای برتر را نسبت به رمزگذارهای خودکار نشان میدهند. ضمیمه اثباتهای ریاضی و مشتقات برخی از ویژگیهای ریاضی معرفی شده در فصلها را پوشش میدهد.
سرفصلهای کتاب Math and Architectures of Deep Learning:
- 1 An overview of machine learning and deep learning
- 2 Vectors, matrices, and tensors in machine learning
- 3 Classifiers and vector calculus
- 4 Linear algebraic tools in machine learning
- 5 Probability distributions in machine learning
- 6 Bayesian tools for machine learning
- 7 Function approximation: How neural networks model the world
- 8 Training neural networks: Forward propagation and backpropagation
- 9 Loss, optimization, and regularization
- 10 Convolutions in neural networks
- 11 Neural networks for image classification and object detection
- 12 Manifolds, homeomorphism, and neural networks
- 13 Fully Bayes model parameter estimation
- 14 Latent space and generative modeling, autoencoders, and variational autoencoders
- A Appendix
جهت دانلود کتاب Math and Architectures of Deep Learning میتوانید پس از پرداخت، دریافت کنید.
دیدگاهها
هیچ دیدگاهی برای این محصول نوشته نشده است.