کتاب Mastering Transformers, 2nd Edition: Build state-of-the-art models for natural language processing and multi-modal tasks: The journey from BERT to CLIP and Stable … to Large Language models and Stable Diffusion (تسلط بر ترانسفورمرها، ویرایش دوم: ساخت مدلهای پیشرفته برای پردازش زبان طبیعی و وظایف چندوجهی: سفر از BERT به CLIP و Stable Diffusion … به مدلهای زبانی بزرگ و Stable Diffusion) یک راهنمای جامع و پیشرفته برای توسعهدهندگان و محققان علاقهمند به یادگیری عمیق و پردازش زبان طبیعی است.
این کتاب به بررسی معماری ترانسفورمرها، یکی از مهمترین پیشرفتهای اخیر در حوزه هوش مصنوعی، میپردازد و به شما کمک میکند تا درک عمیقی از این تکنولوژی قدرتمند به دست آورید. از مبانی ترانسفورمرها شروع کرده و به بررسی مدلهای پیشرفتهای مانند BERT، GPT، T5، CLIP، Stable Diffusion و مدلهای زبانی بزرگ (LLM) میپردازد. با مطالعه این کتاب، شما قادر خواهید بود مدلهای پیشرفته NLP و چندوجهی را طراحی و پیادهسازی کنید و در مرزهای نوآوری در این حوزه قرار بگیرید.
در ادامه مقدمهای از کتاب Mastering Transformers را از زبان نویسنده شرح خواهیم داد.
مقدمهای بر کتاب Mastering Transformers:
مدلهای زبانی مبتنی بر ترانسفورمرها به عنوان سنگ بنای اصلی در حوزه پردازش زبان طبیعی (NLP) ظهور کردهاند و نشان دهنده یک تغییر پارادایم هستند. تواناییهای فوقالعاده آنها در تنظیم دقیق و کار بدون نیاز به آموزش مجدد (zero-shot) ثابت کرده است که سریعتر و دقیقتر از روشهای سنتی یادگیری ماشین در وظایف مختلف و پیچیده زبان طبیعی عمل میکنند. این راهنمای عملی NLP یک منبع ارزشمند برای توسعهدهندگان است و آنها را با معماری ترانسفورمرها آشنا میکند.
کتاب Mastering Transformers توضیحات واضح و گامبهگام مفاهیم حیاتی را همراه با مثالهای عملی ارائه میدهد. ما با مروری آسانفهم بر تحول در NLP شروع میکنیم. این شامل درک اولیه مفاهیم و فناوریهای مرتبط با یادگیری عمیق و همچنین راهنمایی جامع در مدیریت وظایف مختلف NLP است.
کتاب Mastering Transformers همچنین برای توسعهدهندگانی که به دنبال گسترش درک خود از مدلهای چندوجهی و هوش مصنوعی مولد هستند، بسیار مفید است. ترانسفورمرها نه تنها برای وظایف NLP استفاده میشوند، بلکه به طور فزایندهای در وظایف بینایی کامپیوتر، پردازش سیگنال و بسیاری از حوزههای دیگر نیز به کار گرفته میشوند.
علاوه بر NLP، حوزه رو به رشدی از یادگیری چندوجهی و هوش مصنوعی مولد وجود دارد که پیشرفتهای هیجانانگیزی را نشان میدهد. در اینجا در مورد مواردی مانند GPT-4، Gemini، Claude، DALL-E و مدلهای مبتنی بر Stable Diffusion صحبت میکنیم. اگر شما یک توسعهدهنده هستید، ارزش آن را دارد که این فناوریها را زیر نظر داشته باشید تا ببینید چگونه میتوانید بهترین استفاده را از آنها برای نیازهای خاص خود ببرید.
کتاب Mastering Transformers برای چه کسانی مناسب است
این کتاب برای پژوهشگران هوش مصنوعی مولد و یادگیری عمیق؛ متخصصان عملی؛ و معلمان، مربیان و دانشجویان یادگیری ماشین/NLP که تسلط خوبی بر موضوعات برنامهنویسی و دانش در زمینههای یادگیری ماشین، یادگیری چندوجهی و هوش مصنوعی دارند و میخواهند برنامههای کاربردی را در حوزه پیشرفته NLP توسعه دهند، مناسب است.
شما باید حداقل پایتون یا زبان برنامهنویسی دیگری را بدانید، با ادبیات یادگیری ماشین آشنا باشید و درک اساسی از علوم کامپیوتر داشته باشید، زیرا این کتاب جنبههای عملی NLP و هوش مصنوعی مولد را پوشش میدهد.
موضوعات پوشش داده شده در کتاب Mastering Transformers
فصل 1، از Bag-of-Words تا ترانسفورمرها، معرفی ملایم و آسانفهمی از ترانسفورمرها را ارائه میدهد. علاوه بر این، روشهای قدیمیتر، از جمله مدلهای یادگیری عمیق و غیر عمیق، مانند CNN، RNN و LSTM برای متن، را با ترانسفورمرها مقایسه میکند.
فصل 2، مقدمه عملی بر موضوع، اولین آزمایش عملی را برای تنظیم محیط شما فراهم میکند. در این فصل، شما در مورد تمام جنبههای ترانسفورمرها در سطح مقدماتی یاد خواهید گرفت. نصب کتابخانههای tensorflow، pytorch، conda، transformers و sentenceTransformers توضیح داده خواهد شد. بخش دیگری از این فصل به نصب نسخههای GPU کتابخانههای مرتبط اختصاص خواهد یافت. ما برخی از مثالهای کد عملی را برای شروع یادگیری از طریق مثالها برای شما ارائه خواهیم داد. شما اولین برنامه hello-world خود را با ترانسفورمرها با بارگذاری مدلهای زبانی از پیش آموزشدیده ارائه شده توسط جامعه خواهید نوشت.
فصل 3، مدلهای زبانی خودرمزگذاری، نحوه استفاده از قسمت رمزگذار ترانسفورمر را پوشش میدهد. شما در مورد معماری مدل BERT و نحوه آموزش/آزمایش مدلهای زبانی خودرمزگذاری مانند BERT و ALBERT خواهید آموخت. شما تفاوت بین مدلها و توابع هدف معماریها را درک خواهید کرد. همچنین یاد خواهید گرفت که چگونه مدلها را با جامعه به اشتراک بگذارید و همچنین چگونه مدلهای از پیش آموزشدیده دیگری که توسط جامعه به اشتراک گذاشته شدهاند را تنظیم دقیق کنید.
فصل 4، از مدلهای مولد تا مدلهای زبانی بزرگ، یک راه حل مولد با ترانسفورمرهای فقط رمزگشا و مدلهای رمزگذار-رمزگشا را پوشش میدهد. در این فصل، جزئیات مدلهای زبانی مولد (GLM) و مدلهای زبانی بزرگ (LLM) را مشاهده خواهید کرد. شما یاد خواهید گرفت که چگونه هر مدل زبانی را، مانند Generated Pre-trained Transformer 2 (GPT-2)، بر روی متن خود از پیش آموزش دهید و از آن در وظایف مختلف، مانند تولید زبان طبیعی (NLG) استفاده کنید.
شما اصول اولیه یک مدل ترانسفورمر انتقال متن به متن (T5) را درک خواهید کرد، نحوه انجام یک آزمایش یادگیری چندوظیفهای عملی با T5 و نحوه آموزش یک مدل T5 چندزبانه (mT5) بر روی دادههای ترجمه ماشینی (MT) خود را خواهید آموخت. پس از اتمام این فصل، شما درک خواهید کرد که GLMها و موارد استفاده مختلف آنها در برنامههای کاربردی text2text، مانند خلاصهسازی، پارافریز، یادگیری چندوظیفهای، یادگیری بدون نیاز به آموزش مجدد (zero-shot) و MT چیست.
فصل 5، تنظیم دقیق مدل زبانی برای طبقهبندی متن، به شما آموزش میدهد که چگونه یک مدل از پیش آموزشدیده را برای طبقهبندی متن بارگیری کنید و یک مدل پایه را برای هر کار طبقهبندی متن پاییندستی، مانند تحلیل احساسات، تنظیم دقیق کنید. شما با مجموعه دادههای شناخته شده مانند GLUE و همچنین مجموعه دادههای خود کار خواهید کرد. شما همچنین از کلاس Trainer کتابخانه transformers استفاده خواهید کرد که بسیاری از پیچیدگیهای فرآیندهای آموزش و تنظیم دقیق را مدیریت میکند.
فصل 6، تنظیم دقیق مدلهای زبانی برای طبقهبندی توکن، نحوه حل وظایف طبقهبندی مبتنی بر توکن مانند تشخیص موجودیت نامدار، وظایف قسمتهای گفتار و پیشبینی دامنه را با تنظیم دقیق مدلهای ترانسفورمر پوشش میدهد.
طبقهبندی توکن، یکی از موضوعات چالش برانگیز در NLP، با تنظیم دقیق (یا ایجاد از ابتدا) با استفاده از کلاس Trainer کتابخانه پایتون transformers پیادهسازی خواهد شد. NER، POS و QA را میتوان به عنوان مشکلات طبقهبندی توکن در نظر گرفت. مجموعه دادههای GLUE و ارائه شده توسط جامعه برای نمونهسازی سریع استفاده میشوند. ما از مدلها و مجموعه دادههای مشترک برای تنظیم دقیق مدلها برای مشکلات طبقهبندی توکن استفاده خواهیم کرد. همچنین در مورد نحوه ارزیابی معیار طبقهبندی توکن نیز بحث خواهیم کرد.
فصل 7، نمایش متن، به بررسی نحوه نمایش متن با یک معماری مبتنی بر ترانسفورمر برای طیف وسیعی از وظایف NLP خواهد پرداخت. نمایش متن یکی دیگر از وظایف پیش پا افتاده در NLP مدرن است. نمایش جملات با استفاده از مدلهای مختلف مانند رمزگذار جمله جهانی و siamese BERT (sentence BERT) با کتابخانههای اضافی مانند sentenceTransformers در اینجا توضیح داده خواهد شد.
مجموعه دادههایی مانند MNLI و XNLI شرح داده خواهد شد، همچنین ارزیابی مدلهای نمایش جمله با STSBenchmark مورد بررسی قرار خواهد گرفت. یادگیری با نمونههای کم/بدون نیاز به آموزش مجدد با استفاده از نمایش جمله کارآمد نیز پوشش داده خواهد شد. وظایف نظارت نشده مانند خوشهبندی با استفاده از یادگیری انتقال نیز ارائه خواهد شد.
فصل 8، تقویت عملکرد مدل، تکنیکهای متعددی برای افزایش عملکرد تنظیم دقیق معمولی را مورد بحث قرار میدهد. در این فصل، ما بررسی خواهیم کرد که چگونه مدلهای ترانسفورمر را فراتر از آموزش معمولی تقویت کنیم. افزایش دادهها، تطبیق دامنه و بهینهسازی هایپرپارامتر موضوعات اصلی برای بهبود عملکرد مدل هستند.
فصل 9، تنظیم دقیق کارآمد پارامتر، به جای تنظیم دقیق تمام پارامترهای یک LLM، میتوانیم راهی ارزانتر و کارآمدتر برای تنظیم دقیق با تکنیکهای پیشرفته مانند LoRa پیدا کنیم. اگرچه تنظیم دقیق مدلهای ترانسفورمر از پیش آموزشدیده یک روش بسیار مفید برای حل وظایف NLP است، اما تنظیم دقیق معمولی میتواند از بسیاری جهات از نظر پارامترها ناکارآمد باشد. ما میتوانیم از یک آداپتور مانند LoRa برای کاهش تعداد پارامترهایی که باید تنظیم دقیق شوند، استفاده کنیم.
فصل 10، مدلهای زبانی بزرگ (LLM): در این فصل، LLMهایی مانند T5 و LLaMA مورد بحث قرار میگیرند، با تمرکز اصلی بر تنظیم دقیق و استنباط کارآمد. حوزه LLM در سالهای اخیر با توسعه مدلهایی مانند GPT-3 (175B)، PaLM (540B)، BLOOM (175B)، LlaMA (65B)، Falcon (180B) و Mistral (7B) پیشرفت قابل توجهی داشته است. این مدلها تواناییهای چشمگیری در وظایف مختلف زبان طبیعی نشان دادهاند.
پوشش چنین موضوع مهمی در یک فصل واحد چالش برانگیز است؛ با این حال، ما قبلاً بسیاری از جنبههای این موضوع را، به ویژه در فصل 4 کتاب Mastering Transformers، پوشش دادهایم. علاوه بر این، در طول کتاب Mastering Transformers، ما پارادایم مدلهای زبانی عصبی و فرآیند آموزش آنها را مورد بحث قرار خواهیم داد.
فصل 11، هوش مصنوعی قابل توضیح (XAI) برای NLP: در این فصل از کتاب Mastering Transformers، ما رویکردهای احتمالی را با آزمایشهای عملی مورد بحث قرار میدهیم. درک تصمیمات اتخاذ شده توسط مدلهای یادگیری عمیق در حین استنباط برای ما بسیار دشوار است. بنابراین، ما به روشهای مختلفی برای درک تصمیمات اتخاذ شده توسط این مدلهای جعبه سیاه نیاز داریم. در این فصل، خواهیم دید که چگونه رویکردهای هوش مصنوعی قابل توضیح (XAI) را در NLP اعمال کنیم.
فصل 12، کار با ترانسفورمرهای کارآمد: از آنجایی که اجرای مدلهای بزرگ در ظرفیت محاسباتی محدود دشوار میشود، اکنون مهم است که یک مدل زبانی عمومی کوچکتر مانند DistilBERT را از پیش آموزش دهیم که سپس بتوان آن را با عملکرد خوب در طیف گستردهای از مشکلات مانند همتایان غیر تقطیر خود تنظیم دقیق کرد. همچنین، معماریهای مبتنی بر ترانسفورمر با محدودیتهای پیچیدگی ناشی از پیچیدگی درجه دوم حاصلضرب نقطه ای توجه در ترانسفورمرها و وظایف NLP با زمینه طولانی مواجه هستند.
مدلهای زبانی مبتنی بر کاراکتر، پردازش گفتار و اسناد طولانی از جمله مشکلات زمینه طولانی هستند. در سالهای اخیر، پیشرفتهای زیادی در زمینه کارآمدتر کردن خودتوجهی، مانند Reformer، Performer و Bird به عنوان راه حلهایی برای پیچیدگی آن، مشاهده شده است.
فصل 13، مدلسازی زبان چندزبانه و بین زبانی: در این فصل از کتاب Mastering Transformers، ما در مورد نحوه کار با بیش از یک زبان بحث میکنیم. معماری و مدلهایی مانند XLM در این فصل توضیح داده خواهند شد. انتقال از مدلسازی زبان تکزبانه به چندزبانه و بین زبانی توضیح داده خواهد شد.
مفهوم اشتراکگذاری دانش بین زبانها ارائه خواهد شد، همچنین تأثیر رمزگذاری جفت بایت بر توکنسازی برای دستیابی به ورودی بهتر ارائه خواهد شد. شباهت جمله بین زبانی با استفاده از یک مجموعه داده بین زبانی (XNLI) به تفصیل توضیح داده خواهد شد. وظایفی مانند طبقهبندی بین زبانی و استفاده از نمایش جمله بین زبانی برای آموزش در یک زبان و آزمایش در زبان دیگر با ارائه مثالهای واقعی از مشکلات دنیای واقعی در NLP، مانند طبقهبندی قصد چندزبانه، ارائه خواهد شد.
فصل 14، ارائه مدلهای ترانسفورمر: نحوه رفتن به تولید موضوع اصلی این فصل از کتاب Mastering Transformers است. مانند هر راه حل واقعی و مدرن دیگر، راه حلهای مبتنی بر NLP باید بتوانند در یک محیط تولید ارائه شوند. با این حال، معیارهایی مانند زمان پاسخ باید در هنگام توسعه چنین راه حلهایی در نظر گرفته شود.
این فصل از کتاب Mastering Transformers به تفصیل نحوه ارائه یک راه حل NLP مبتنی بر ترانسفورمر در محیطهایی که CPU/GPU در دسترس است را شرح میدهد. TensorFlow Extended (TFX) برای استقرار یادگیری ماشین به عنوان یک راه حل در اینجا توضیح داده خواهد شد. همچنین، راه حلهای دیگری برای ارائه ترانسفورمرها به عنوان API، مانند FastAPI، نشان داده خواهد شد.
فصل 15، ردیابی و نظارت بر مدل: در این فصل از کتاب Mastering Transformers، ما باید مدل خود را در حین آموزش نظارت کنیم تا بدانیم چه زمانی باید متوقف شویم و بررسی کنیم که آیا مشکلی مانند بیشبرازش وجود دارد یا خیر. ما آزمایشهای خود را با ثبت وقایع و نظارت با استفاده از TensorBoard ردیابی خواهیم کرد. این به ما امکان میدهد نتایج آزمایشهای خود، مانند ردیابی معیارهای از دست دادن و دقت یا پیشبینی تعبیههای یادگرفته شده به یک فضای بعدی کمتر، را به طور کارآمد میزبانی، ردیابی و به اشتراک بگذاریم.
فصل 16، ترانسفورمرهای بینایی: علاوه بر NLP، ما همچنین میتوانیم با تصاویر کار کنیم. ترانسفورمرها به اهداف بزرگی در حوزه NLP دست یافتند و همانطور که در فصلهای قبلی مشاهده کردهاید، میتوانند وظایف مختلفی را انجام دهند.
در این فصل، ترانسفورمر بینایی (ViT) توضیح داده شده است. درست مانند NLP، مدلهای مختلفی نیز برای بینایی ایجاد شدهاند و هر یک از آنها دیدگاه جدیدی از چشمانداز بینایی کامپیوتر را ایجاد کردهاند. با خواندن این فصل از کتاب Mastering Transformers، خواهید دانست که چگونه میتوانید از مدلهایی مانند ViT برای وظایف بینایی کامپیوتر استفاده کنید، نحوه عملکرد مدلهای بینایی کامپیوتر از پیش آموزشدیده مبتنی بر ترانسفورمر و نحوه تنظیم دقیق آنها برای وظایف خاص.
فصل 17، ترانسفورمرهای مولد چندوجهی: ما همچنین میتوانیم با تمام مدالیتهها در یک مدل کار کنیم؛ متن، تصویر، صدا و غیره. مدلهایی مانند CLIP نتایج امیدوارکنندهای در جستجوی چندوجهی (متن-تصویر) نشان میدهند.
مدلها و رویکردهای دیگر، مانند Stable Diffusion، عملکرد بسیار خوبی در تولید تصاویر از اعلانهای متنی دارند. در این فصل از کتاب Mastering Transformers، ما به بررسی این مدلها خواهیم پرداخت و ابتدا یک موتور جستجوی معنایی با استفاده از CLIP ایجاد خواهیم کرد. سپس، خواهید آموخت که چگونه میتوان طبقهبندیکنندههای چندوجهی را با استفاده از CLIP و مدلهای از پیش آموزشدیده بین وجهی ایجاد کرد.
شما یاد خواهید گرفت که چگونه از Stable Diffusion و سایر مدلهای از پیش آموزشدیده مبتنی بر اعلان مرتبط، مانند Midjourney، استفاده کنید. پس از آن، یاد خواهید گرفت که چگونه راهحلهای تشخیص شیء را بدون دادههای آموزشی با استفاده از مدلهای از پیش آموزشدیده چندوجهی مبتنی بر اعلان صفر شات ایجاد کنید.
فصل 18، بازبینی مجدد معماری ترانسفورمر برای سریهای زمانی: نحوه بازسازی یک ترانسفورمر برای وظایف سری زمانی را برای بهرهبرداری از مزایای ترانسفورمرها پوشش میدهد. ترانسفورمرها به خوبی برای وظایف خاص NLP شناخته شدهاند. قدرت اصلی آنها از قابلیت آنها در مدلسازی دادههای سری زمانی ناشی میشود. این دادهها میتوانند متنی یا غیر متنی باشند. در این فصل از کتاب Mastering Transformers، یاد خواهید گرفت که چگونه از ترانسفورمرها برای مدلسازی و پیشبینی دادههای سری زمانی استفاده کنید.
سرفصلهای کتاب Mastering Transformers:
- Cover
- Title page
- Copyright and Credits
- Contributors
- Table of Contents
- Preface
- Part 1: Recent Developments in the Field, Installations, and Hello World Applications
- Chapter 1: From Bag-of-Words to the Transformers
- Chapter 2: A Hands-On Introduction to the Subject
- Part 2: Transformer Models: From Autoencoders to Autoregressive Models
- Chapter 3: Autoencoding Language Models
- Chapter 4: From Generative Models to Large Language Models
- Chapter 5: Fine-Tuning Language Models for Text Classification
- Chapter 6: Fine-Tuning Language Models for Token Classification
- Chapter 7: Text Representation
- Chapter 8: Boosting Model Performance
- Chapter 9: Parameter Efficient Fine-Tuning
- Part 3: Advanced Topics
- Chapter 10: Large Language Models
- Chapter 11: Explainable Al (XAI) in NLP
- Chapter 12: Working with Efficient Transformers
- Chapter 13: Cross-Lingual and Multilingual Language Modeling
- Chapter 14: Serving Transformer Models
- Chapter 15: Model Tracking and Monitoring
- Part 4: Transformers beyond NLP
- Chapter 16: Vision Transformers
- Chapter 17: Multimodal Generative Transformers
- Chapter 18: Revisiting Transformers Architecture for Time Series
- Index
- Other Books You May Enjoy
جهت دانلود کتاب Mastering Transformers میتوانید پس از پرداخت، دریافت کنید.
دیدگاهها
هیچ دیدگاهی برای این محصول نوشته نشده است.