کتاب Mastering Transformers

  • کتاب Mastering Transformers ویرایش دوم
  • بخش 1 کتاب Mastering Transformers ویرایش دوم
  • بخش 2 کتاب Mastering Transformers ویرایش دوم
  • بخش 3 کتاب Mastering Transformers ویرایش دوم
  • بخش 4 کتاب Mastering Transformers ویرایش دوم
کتاب Mastering Transformers ویرایش دوم

خرید کتاب Mastering Transformers:

۳۰,۰۰۰ تومان

  • نسخه کتاب فعلی به زبان لاتین می‌باشد.
  • کتاب به صورت فایل می‌باشد و پس از خرید بلافاصله در دسترس شما قرار می‌گیرد.
  • در صورت هرگونه سؤال با ایمیل و یا شماره پشتیبانی سایت در تماس باشید.

کتاب Mastering Transformers, 2nd Edition: Build state-of-the-art models for natural language processing and multi-modal tasks: The journey from BERT to CLIP and Stable … to Large Language models and Stable Diffusion (تسلط بر ترانسفورمرها، ویرایش دوم: ساخت مدل‌های پیشرفته برای پردازش زبان طبیعی و وظایف چندوجهی: سفر از BERT به CLIP و Stable Diffusion … به مدل‌های زبانی بزرگ و Stable Diffusion) یک راهنمای جامع و پیشرفته برای توسعه‌دهندگان و محققان علاقه‌مند به یادگیری عمیق و پردازش زبان طبیعی است.

این کتاب به بررسی معماری ترانسفورمرها، یکی از مهم‌ترین پیشرفت‌های اخیر در حوزه هوش مصنوعی، می‌پردازد و به شما کمک می‌کند تا درک عمیقی از این تکنولوژی قدرتمند به دست آورید. از مبانی ترانسفورمرها شروع کرده و به بررسی مدل‌های پیشرفته‌ای مانند BERT، GPT، T5، CLIP، Stable Diffusion و مدل‌های زبانی بزرگ (LLM) می‌پردازد. با مطالعه این کتاب، شما قادر خواهید بود مدل‌های پیشرفته NLP و چندوجهی را طراحی و پیاده‌سازی کنید و در مرزهای نوآوری در این حوزه قرار بگیرید.

در ادامه مقدمه‌ای از کتاب Mastering Transformers را از زبان نویسنده شرح خواهیم داد.

مقدمه‌ای بر کتاب Mastering Transformers:

مدل‌های زبانی مبتنی بر ترانسفورمرها به عنوان سنگ بنای اصلی در حوزه پردازش زبان طبیعی (NLP) ظهور کرده‌اند و نشان دهنده یک تغییر پارادایم هستند. توانایی‌های فوق‌العاده آن‌ها در تنظیم دقیق و کار بدون نیاز به آموزش مجدد (zero-shot) ثابت کرده است که سریع‌تر و دقیق‌تر از روش‌های سنتی یادگیری ماشین در وظایف مختلف و پیچیده زبان طبیعی عمل می‌کنند. این راهنمای عملی NLP یک منبع ارزشمند برای توسعه‌دهندگان است و آن‌ها را با معماری ترانسفورمرها آشنا می‌کند.

کتاب Mastering Transformers توضیحات واضح و گام‌به‌گام مفاهیم حیاتی را همراه با مثال‌های عملی ارائه می‌دهد. ما با مروری آسان‌فهم بر تحول در NLP شروع می‌کنیم. این شامل درک اولیه مفاهیم و فناوری‌های مرتبط با یادگیری عمیق و همچنین راهنمایی جامع در مدیریت وظایف مختلف NLP است.

کتاب Mastering Transformers همچنین برای توسعه‌دهندگانی که به دنبال گسترش درک خود از مدل‌های چندوجهی و هوش مصنوعی مولد هستند، بسیار مفید است. ترانسفورمرها نه تنها برای وظایف NLP استفاده می‌شوند، بلکه به طور فزاینده‌ای در وظایف بینایی کامپیوتر، پردازش سیگنال و بسیاری از حوزه‌های دیگر نیز به کار گرفته می‌شوند.

علاوه بر NLP، حوزه رو به رشدی از یادگیری چندوجهی و هوش مصنوعی مولد وجود دارد که پیشرفت‌های هیجان‌انگیزی را نشان می‌دهد. در اینجا در مورد مواردی مانند GPT-4، Gemini، Claude، DALL-E و مدل‌های مبتنی بر Stable Diffusion صحبت می‌کنیم. اگر شما یک توسعه‌دهنده هستید، ارزش آن را دارد که این فناوری‌ها را زیر نظر داشته باشید تا ببینید چگونه می‌توانید بهترین استفاده را از آن‌ها برای نیازهای خاص خود ببرید.

کتاب Mastering Transformers برای چه کسانی مناسب است

این کتاب برای پژوهشگران هوش مصنوعی مولد و یادگیری عمیق؛ متخصصان عملی؛ و معلمان، مربیان و دانشجویان یادگیری ماشین/NLP که تسلط خوبی بر موضوعات برنامه‌نویسی و دانش در زمینه‌های یادگیری ماشین، یادگیری چندوجهی و هوش مصنوعی دارند و می‌خواهند برنامه‌های کاربردی را در حوزه پیشرفته NLP توسعه دهند، مناسب است.

شما باید حداقل پایتون یا زبان برنامه‌نویسی دیگری را بدانید، با ادبیات یادگیری ماشین آشنا باشید و درک اساسی از علوم کامپیوتر داشته باشید، زیرا این کتاب جنبه‌های عملی NLP و هوش مصنوعی مولد را پوشش می‌دهد.

موضوعات پوشش داده شده در کتاب Mastering Transformers

فصل 1، از Bag-of-Words تا ترانسفورمرها، معرفی ملایم و آسان‌فهمی از ترانسفورمرها را ارائه می‌دهد. علاوه بر این، روش‌های قدیمی‌تر، از جمله مدل‌های یادگیری عمیق و غیر عمیق، مانند CNN، RNN و LSTM برای متن، را با ترانسفورمرها مقایسه می‌کند.

فصل 2، مقدمه عملی بر موضوع، اولین آزمایش عملی را برای تنظیم محیط شما فراهم می‌کند. در این فصل، شما در مورد تمام جنبه‌های ترانسفورمرها در سطح مقدماتی یاد خواهید گرفت. نصب کتابخانه‌های tensorflow، pytorch، conda، transformers و sentenceTransformers توضیح داده خواهد شد. بخش دیگری از این فصل به نصب نسخه‌های GPU کتابخانه‌های مرتبط اختصاص خواهد یافت. ما برخی از مثال‌های کد عملی را برای شروع یادگیری از طریق مثال‌ها برای شما ارائه خواهیم داد. شما اولین برنامه hello-world خود را با ترانسفورمرها با بارگذاری مدل‌های زبانی از پیش آموزش‌دیده ارائه شده توسط جامعه خواهید نوشت.

فصل 3، مدل‌های زبانی خودرمزگذاری، نحوه استفاده از قسمت رمزگذار ترانسفورمر را پوشش می‌دهد. شما در مورد معماری مدل BERT و نحوه آموزش/آزمایش مدل‌های زبانی خودرمزگذاری مانند BERT و ALBERT خواهید آموخت. شما تفاوت بین مدل‌ها و توابع هدف معماری‌ها را درک خواهید کرد. همچنین یاد خواهید گرفت که چگونه مدل‌ها را با جامعه به اشتراک بگذارید و همچنین چگونه مدل‌های از پیش آموزش‌دیده دیگری که توسط جامعه به اشتراک گذاشته شده‌اند را تنظیم دقیق کنید.

فصل 4، از مدل‌های مولد تا مدل‌های زبانی بزرگ، یک راه حل مولد با ترانسفورمرهای فقط رمزگشا و مدل‌های رمزگذار-رمزگشا را پوشش می‌دهد. در این فصل، جزئیات مدل‌های زبانی مولد (GLM) و مدل‌های زبانی بزرگ (LLM) را مشاهده خواهید کرد. شما یاد خواهید گرفت که چگونه هر مدل زبانی را، مانند Generated Pre-trained Transformer 2 (GPT-2)، بر روی متن خود از پیش آموزش دهید و از آن در وظایف مختلف، مانند تولید زبان طبیعی (NLG) استفاده کنید.

شما اصول اولیه یک مدل ترانسفورمر انتقال متن به متن (T5) را درک خواهید کرد، نحوه انجام یک آزمایش یادگیری چندوظیفه‌ای عملی با T5 و نحوه آموزش یک مدل T5 چندزبانه (mT5) بر روی داده‌های ترجمه ماشینی (MT) خود را خواهید آموخت. پس از اتمام این فصل، شما درک خواهید کرد که GLMها و موارد استفاده مختلف آن‌ها در برنامه‌های کاربردی text2text، مانند خلاصه‌سازی، پارافریز، یادگیری چندوظیفه‌ای، یادگیری بدون نیاز به آموزش مجدد (zero-shot) و MT چیست.

فصل 5، تنظیم دقیق مدل زبانی برای طبقه‌بندی متن، به شما آموزش می‌دهد که چگونه یک مدل از پیش آموزش‌دیده را برای طبقه‌بندی متن بارگیری کنید و یک مدل پایه را برای هر کار طبقه‌بندی متن پایین‌دستی، مانند تحلیل احساسات، تنظیم دقیق کنید. شما با مجموعه داده‌های شناخته شده مانند GLUE و همچنین مجموعه داده‌های خود کار خواهید کرد. شما همچنین از کلاس Trainer کتابخانه transformers استفاده خواهید کرد که بسیاری از پیچیدگی‌های فرآیندهای آموزش و تنظیم دقیق را مدیریت می‌کند.

فصل 6، تنظیم دقیق مدل‌های زبانی برای طبقه‌بندی توکن، نحوه حل وظایف طبقه‌بندی مبتنی بر توکن مانند تشخیص موجودیت نام‌دار، وظایف قسمت‌های گفتار و پیش‌بینی دامنه را با تنظیم دقیق مدل‌های ترانسفورمر پوشش می‌دهد.

طبقه‌بندی توکن، یکی از موضوعات چالش برانگیز در NLP، با تنظیم دقیق (یا ایجاد از ابتدا) با استفاده از کلاس Trainer کتابخانه پایتون transformers پیاده‌سازی خواهد شد. NER، POS و QA را می‌توان به عنوان مشکلات طبقه‌بندی توکن در نظر گرفت. مجموعه داده‌های GLUE و ارائه شده توسط جامعه برای نمونه‌سازی سریع استفاده می‌شوند. ما از مدل‌ها و مجموعه داده‌های مشترک برای تنظیم دقیق مدل‌ها برای مشکلات طبقه‌بندی توکن استفاده خواهیم کرد. همچنین در مورد نحوه ارزیابی معیار طبقه‌بندی توکن نیز بحث خواهیم کرد.

فصل 7، نمایش متن، به بررسی نحوه نمایش متن با یک معماری مبتنی بر ترانسفورمر برای طیف وسیعی از وظایف NLP خواهد پرداخت. نمایش متن یکی دیگر از وظایف پیش پا افتاده در NLP مدرن است. نمایش جملات با استفاده از مدل‌های مختلف مانند رمزگذار جمله جهانی و siamese BERT (sentence BERT) با کتابخانه‌های اضافی مانند sentenceTransformers در اینجا توضیح داده خواهد شد.

مجموعه داده‌هایی مانند MNLI و XNLI شرح داده خواهد شد، همچنین ارزیابی مدل‌های نمایش جمله با STSBenchmark مورد بررسی قرار خواهد گرفت. یادگیری با نمونه‌های کم/بدون نیاز به آموزش مجدد با استفاده از نمایش جمله کارآمد نیز پوشش داده خواهد شد. وظایف نظارت نشده مانند خوشه‌بندی با استفاده از یادگیری انتقال نیز ارائه خواهد شد.

فصل 8، تقویت عملکرد مدل، تکنیک‌های متعددی برای افزایش عملکرد تنظیم دقیق معمولی را مورد بحث قرار می‌دهد. در این فصل، ما بررسی خواهیم کرد که چگونه مدل‌های ترانسفورمر را فراتر از آموزش معمولی تقویت کنیم. افزایش داده‌ها، تطبیق دامنه و بهینه‌سازی هایپرپارامتر موضوعات اصلی برای بهبود عملکرد مدل هستند.

فصل 9، تنظیم دقیق کارآمد پارامتر، به جای تنظیم دقیق تمام پارامترهای یک LLM، می‌توانیم راهی ارزان‌تر و کارآمدتر برای تنظیم دقیق با تکنیک‌های پیشرفته مانند LoRa پیدا کنیم. اگرچه تنظیم دقیق مدل‌های ترانسفورمر از پیش آموزش‌دیده یک روش بسیار مفید برای حل وظایف NLP است، اما تنظیم دقیق معمولی می‌تواند از بسیاری جهات از نظر پارامترها ناکارآمد باشد. ما می‌توانیم از یک آداپتور مانند LoRa برای کاهش تعداد پارامترهایی که باید تنظیم دقیق شوند، استفاده کنیم.

فصل 10، مدل‌های زبانی بزرگ (LLM): در این فصل، LLMهایی مانند T5 و LLaMA مورد بحث قرار می‌گیرند، با تمرکز اصلی بر تنظیم دقیق و استنباط کارآمد. حوزه LLM در سال‌های اخیر با توسعه مدل‌هایی مانند GPT-3 (175B)، PaLM (540B)، BLOOM (175B)، LlaMA (65B)، Falcon (180B) و Mistral (7B) پیشرفت قابل توجهی داشته است. این مدل‌ها توانایی‌های چشمگیری در وظایف مختلف زبان طبیعی نشان داده‌اند.

پوشش چنین موضوع مهمی در یک فصل واحد چالش برانگیز است؛ با این حال، ما قبلاً بسیاری از جنبه‌های این موضوع را، به ویژه در فصل 4 کتاب Mastering Transformers، پوشش داده‌ایم. علاوه بر این، در طول کتاب Mastering Transformers، ما پارادایم مدل‌های زبانی عصبی و فرآیند آموزش آن‌ها را مورد بحث قرار خواهیم داد.

فصل 11، هوش مصنوعی قابل توضیح (XAI) برای NLP: در این فصل از کتاب Mastering Transformers، ما رویکردهای احتمالی را با آزمایش‌های عملی مورد بحث قرار می‌دهیم. درک تصمیمات اتخاذ شده توسط مدل‌های یادگیری عمیق در حین استنباط برای ما بسیار دشوار است. بنابراین، ما به روش‌های مختلفی برای درک تصمیمات اتخاذ شده توسط این مدل‌های جعبه سیاه نیاز داریم. در این فصل، خواهیم دید که چگونه رویکردهای هوش مصنوعی قابل توضیح (XAI) را در NLP اعمال کنیم.

فصل 12، کار با ترانسفورمرهای کارآمد: از آنجایی که اجرای مدل‌های بزرگ در ظرفیت محاسباتی محدود دشوار می‌شود، اکنون مهم است که یک مدل زبانی عمومی کوچکتر مانند DistilBERT را از پیش آموزش دهیم که سپس بتوان آن را با عملکرد خوب در طیف گسترده‌ای از مشکلات مانند همتایان غیر تقطیر خود تنظیم دقیق کرد. همچنین، معماری‌های مبتنی بر ترانسفورمر با محدودیت‌های پیچیدگی ناشی از پیچیدگی درجه دوم حاصلضرب نقطه ای توجه در ترانسفورمرها و وظایف NLP با زمینه طولانی مواجه هستند.

مدل‌های زبانی مبتنی بر کاراکتر، پردازش گفتار و اسناد طولانی از جمله مشکلات زمینه طولانی هستند. در سال‌های اخیر، پیشرفت‌های زیادی در زمینه کارآمدتر کردن خودتوجهی، مانند Reformer، Performer و Bird به عنوان راه حل‌هایی برای پیچیدگی آن، مشاهده شده است.

فصل 13، مدل‌سازی زبان چندزبانه و بین زبانی: در این فصل از کتاب Mastering Transformers، ما در مورد نحوه کار با بیش از یک زبان بحث می‌کنیم. معماری و مدل‌هایی مانند XLM در این فصل توضیح داده خواهند شد. انتقال از مدل‌سازی زبان تک‌زبانه به چندزبانه و بین زبانی توضیح داده خواهد شد.

مفهوم اشتراک‌گذاری دانش بین زبان‌ها ارائه خواهد شد، همچنین تأثیر رمزگذاری جفت بایت بر توکن‌سازی برای دستیابی به ورودی بهتر ارائه خواهد شد. شباهت جمله بین زبانی با استفاده از یک مجموعه داده بین زبانی (XNLI) به تفصیل توضیح داده خواهد شد. وظایفی مانند طبقه‌بندی بین زبانی و استفاده از نمایش جمله بین زبانی برای آموزش در یک زبان و آزمایش در زبان دیگر با ارائه مثال‌های واقعی از مشکلات دنیای واقعی در NLP، مانند طبقه‌بندی قصد چندزبانه، ارائه خواهد شد.

فصل 14، ارائه مدل‌های ترانسفورمر: نحوه رفتن به تولید موضوع اصلی این فصل از کتاب Mastering Transformers است. مانند هر راه حل واقعی و مدرن دیگر، راه حل‌های مبتنی بر NLP باید بتوانند در یک محیط تولید ارائه شوند. با این حال، معیارهایی مانند زمان پاسخ باید در هنگام توسعه چنین راه حل‌هایی در نظر گرفته شود.

این فصل از کتاب Mastering Transformers به تفصیل نحوه ارائه یک راه حل NLP مبتنی بر ترانسفورمر در محیط‌هایی که CPU/GPU در دسترس است را شرح می‌دهد. TensorFlow Extended (TFX) برای استقرار یادگیری ماشین به عنوان یک راه حل در اینجا توضیح داده خواهد شد. همچنین، راه حل‌های دیگری برای ارائه ترانسفورمرها به عنوان API، مانند FastAPI، نشان داده خواهد شد.

فصل 15، ردیابی و نظارت بر مدل: در این فصل از کتاب Mastering Transformers، ما باید مدل خود را در حین آموزش نظارت کنیم تا بدانیم چه زمانی باید متوقف شویم و بررسی کنیم که آیا مشکلی مانند بیش‌برازش وجود دارد یا خیر. ما آزمایش‌های خود را با ثبت وقایع و نظارت با استفاده از TensorBoard ردیابی خواهیم کرد. این به ما امکان می‌دهد نتایج آزمایش‌های خود، مانند ردیابی معیارهای از دست دادن و دقت یا پیش‌بینی تعبیه‌های یادگرفته شده به یک فضای بعدی کمتر، را به طور کارآمد میزبانی، ردیابی و به اشتراک بگذاریم.

فصل 16، ترانسفورمرهای بینایی: علاوه بر NLP، ما همچنین می‌توانیم با تصاویر کار کنیم. ترانسفورمرها به اهداف بزرگی در حوزه NLP دست یافتند و همانطور که در فصل‌های قبلی مشاهده کرده‌اید، می‌توانند وظایف مختلفی را انجام دهند.

در این فصل، ترانسفورمر بینایی (ViT) توضیح داده شده است. درست مانند NLP، مدل‌های مختلفی نیز برای بینایی ایجاد شده‌اند و هر یک از آن‌ها دیدگاه جدیدی از چشم‌انداز بینایی کامپیوتر را ایجاد کرده‌اند. با خواندن این فصل از کتاب Mastering Transformers، خواهید دانست که چگونه می‌توانید از مدل‌هایی مانند ViT برای وظایف بینایی کامپیوتر استفاده کنید، نحوه عملکرد مدل‌های بینایی کامپیوتر از پیش آموزش‌دیده مبتنی بر ترانسفورمر و نحوه تنظیم دقیق آن‌ها برای وظایف خاص.

فصل 17، ترانسفورمرهای مولد چندوجهی: ما همچنین می‌توانیم با تمام مدالیته‌ها در یک مدل کار کنیم؛ متن، تصویر، صدا و غیره. مدل‌هایی مانند CLIP نتایج امیدوارکننده‌ای در جستجوی چندوجهی (متن-تصویر) نشان می‌دهند.

مدل‌ها و رویکردهای دیگر، مانند Stable Diffusion، عملکرد بسیار خوبی در تولید تصاویر از اعلان‌های متنی دارند. در این فصل از کتاب Mastering Transformers، ما به بررسی این مدل‌ها خواهیم پرداخت و ابتدا یک موتور جستجوی معنایی با استفاده از CLIP ایجاد خواهیم کرد. سپس، خواهید آموخت که چگونه می‌توان طبقه‌بندی‌کننده‌های چندوجهی را با استفاده از CLIP و مدل‌های از پیش آموزش‌دیده بین وجهی ایجاد کرد.

شما یاد خواهید گرفت که چگونه از Stable Diffusion و سایر مدل‌های از پیش آموزش‌دیده مبتنی بر اعلان مرتبط، مانند Midjourney، استفاده کنید. پس از آن، یاد خواهید گرفت که چگونه راه‌حل‌های تشخیص شیء را بدون داده‌های آموزشی با استفاده از مدل‌های از پیش آموزش‌دیده چندوجهی مبتنی بر اعلان صفر شات ایجاد کنید.

فصل 18، بازبینی مجدد معماری ترانسفورمر برای سری‌های زمانی: نحوه بازسازی یک ترانسفورمر برای وظایف سری زمانی را برای بهره‌برداری از مزایای ترانسفورمرها پوشش می‌دهد. ترانسفورمرها به خوبی برای وظایف خاص NLP شناخته شده‌اند. قدرت اصلی آن‌ها از قابلیت آن‌ها در مدل‌سازی داده‌های سری زمانی ناشی می‌شود. این داده‌ها می‌توانند متنی یا غیر متنی باشند. در این فصل از کتاب Mastering Transformers، یاد خواهید گرفت که چگونه از ترانسفورمرها برای مدل‌سازی و پیش‌بینی داده‌های سری زمانی استفاده کنید.

سرفصل‌های کتاب Mastering Transformers:

  • Cover
  • Title page
  • Copyright and Credits
  • Contributors
  • Table of Contents
  • Preface
  • Part 1: Recent Developments in the Field, Installations, and Hello World Applications
    • Chapter 1: From Bag-of-Words to the Transformers
    • Chapter 2: A Hands-On Introduction to the Subject
  • Part 2: Transformer Models: From Autoencoders to Autoregressive Models
    • Chapter 3: Autoencoding Language Models
    • Chapter 4: From Generative Models to Large Language Models
    • Chapter 5: Fine-Tuning Language Models for Text Classification
    • Chapter 6: Fine-Tuning Language Models for Token Classification
    • Chapter 7: Text Representation
    • Chapter 8: Boosting Model Performance
    • Chapter 9: Parameter Efficient Fine-Tuning
  • Part 3: Advanced Topics
    • Chapter 10: Large Language Models
    • Chapter 11: Explainable Al (XAI) in NLP
    • Chapter 12: Working with Efficient Transformers
    • Chapter 13: Cross-Lingual and Multilingual Language Modeling
    • Chapter 14: Serving Transformer Models
    • Chapter 15: Model Tracking and Monitoring
  • Part 4: Transformers beyond NLP
    • Chapter 16: Vision Transformers
    • Chapter 17: Multimodal Generative Transformers
    • Chapter 18: Revisiting Transformers Architecture for Time Series
  • Index
  • Other Books You May Enjoy

جهت دانلود کتاب Mastering Transformers می‌توانید پس از پرداخت، دریافت کنید.

فرمت کتاب

epub, PDF

ویرایش

Second

ISBN

978-1-83763-378-4

تعداد صفحات

462

انتشارات

سال انتشار

حجم

17.73 مگابایت, 30.42 مگابایت

نویسنده

,

دیدگاهها

هیچ دیدگاهی برای این محصول نوشته نشده است.

اولین نفری باشید که دیدگاهی را ارسال می کنید برای “کتاب Mastering Transformers”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

خرید کتاب Mastering Transformers:

۳۰,۰۰۰ تومان

  • نسخه کتاب فعلی به زبان لاتین می‌باشد.
  • کتاب به صورت فایل می‌باشد و پس از خرید بلافاصله در دسترس شما قرار می‌گیرد.
  • در صورت هرگونه سؤال با ایمیل و یا شماره پشتیبانی سایت در تماس باشید.
دسته‌یندی کتاب‌ها:
سبد خرید
به بالا بروید