کتاب
در ادامه مقدمهای از کتاب Building Natural Language and LLM Pipelines را از زبان نویسنده شرح خواهیم داد.
مقدمهای بر کتاب Building Natural Language and LLM Pipelines:
بین سالهای ۲۰۲۳ تا ۲۰۲۵، انتشار مدلهای زبانی بزرگ (LLM) شرکت OpenAI بهصورت endpointهای مبتنی بر REST، توجه متخصصان صنایع مختلف را با توانایی چشمگیرشان در درک و پاسخگویی به زبان طبیعی به خود جلب کرد. در سال ۲۰۲۴، از توانایی این مدلها در تولید پاسخهای آگاه از کانتکست و مبتنی بر یک بدنهٔ اسنادی شگفتزده شدیم. این رویکرد که «تولید تقویتشده با بازیابی» یا RAG نام دارد، بهسرعت به یکی از تکنیکهای بنیادین در هوش مصنوعی مدرن تبدیل شد.
در جریان آزمایش با این فناوری، دریافتیم که LLMها فراتر از پاسخدادن به پرسشها عمل میکنند؛ آنها میتوانند با استفاده از ابزارها برای حل مسئله گسترش یابند. این قابلیت، افقهای تازهای را برای مهندسان نرمافزار گشود و آنان را به توسعهٔ ابزارهایی سوق داد که امکان آنچه امروز، در سال ۲۰۲۵، «ایجنت» مینامیم فراهم میکند.
با وجود آنکه قابلیتهای معرفیشده توسط RAG و ایجنتها گامی هیجانانگیز بهسوی هوش مصنوعی توانمندتر بهشمار میروند، مسیر ادغام ایجنتها در سامانههای دنیای واقعی همچنان مملو از چالش است. کتاب Building Natural Language and LLM Pipelines با نگاهی به سال ۲۰۲۶ و فراتر از آن، استدلال میکند که تمرکز اصلی از «قابلیت» به «قابلیت اطمینان» منتقل خواهد شد.
یکی از مضامین تکرارشونده در گذار از LLMها به RAG و از RAG به ایجنتها، پدیدهٔ «توهم» است؛ حالتی که در آن یک LLM پاسخهایی منسجم اما نادرست تولید میکند. این پدیده در مرکز آن چیزی قرار دارد که کتاب Building Natural Language and LLM Pipelines از آن با عنوان «بحران قابلیت اطمینان ایجنتی در سال ۲۰۲۵» یاد میکند.
در کتاب Building Natural Language and LLM Pipelines نشان میدهیم که یک ایجنت مبتنی بر LLM تنها به اندازهٔ دادهها، ابزارها و کانتکستی که در اختیارش قرار میگیرد، مقاوم و قابلاتکا است. همچنین توضیح میدهیم که قابلیت اطمینان و یکپارچگی سامانه در یک سیستم ایجنتی، ویژگیهای ذاتی LLMها نیستند، بلکه حاصل مهندسی دقیق و طراحی نظاممند سیستماند.
استدلال مرکزی کتاب Building Natural Language and LLM Pipelines ساده است: مسیر دستیابی به هوش مصنوعی قابلاعتماد و در سطح تولید، به بهکارگیری سختگیرانهٔ تکنیکهای کلاسیک پردازش داده وابسته است. در این راستا، الگوی «ابزار در برابر لایهٔ ارکستراسیون» معرفی میشود؛ الگویی که در آن ابزارهای باکیفیت، مقاوم و مقیاسپذیر بهصورت میکروسرویس توسعه مییابند و سپس ایجنتها از طریق مهندسی منضبط کانتکست به استفاده از این ابزارها مجهز میشوند.
این رویکرد شامل چهار راهبرد اصلی است: نوشتن، انتخاب، فشردهسازی و ایزولهسازی. این راهبردها به ما کمک میکنند اطلاعاتی را که ایجنت در هر گام از فرایند حل مسئله دریافت میکند بهدقت مدیریت کنیم تا بتواند وظیفهٔ محولشده را با کارایی و دقت بالا انجام دهد.
در پایان کتاب Building Natural Language and LLM Pipelines، شما بر دو معماری مبتنی بر گراف مسلط خواهید شد و میآموزید چگونه آنها را برای ساخت سیستمهای ایجنتی بسیار پویا، درعینحال قابل مشاهده و مقاوم، با یکدیگر ترکیب کنید:
Haystack: چارچوبی تخصصی که از گرافهای جهتدار برای ساخت ابزارهای مقاوم، دادهمحور و مقیاسپذیر استفاده میکند.
LangGraph: چارچوبی سطحپایین برای ارکستراسیون که امکان ساخت ایجنتهای قابلسفارشیسازی و جریانهای کنترلی متنوع را برای اجرای ابزارها توسط LLM فراهم میکند.
کتاب Building Natural Language and LLM Pipelines تمرکز پررنگی بر مثالهای عملی دارد. نمونههای فراوانی از نوتبوکهای Jupyter، اسکریپتهای پایتون و شِل، و ایمیجهای کانتینر Docker در اختیار شما قرار میگیرد تا مفاهیم هر فصل را بهصورت عملی پیادهسازی کنید. از طریق مجموعهای از پروژههای کوچک، بهتدریج تخصص خود را افزایش میدهید و در پایان، به نقشهٔ راهی برای ساخت «ایجنتهای مستقل» دست مییابید: هوش مصنوعی کاملاً در اختیار شما که میتواند بهصورت محلی یا روی دستگاههای لبه اجرا شود.
کتاب Building Natural Language and LLM Pipelines برای چه کسانی است؟
کتاب Building Natural Language and LLM Pipelines برای مهندسان NLP، توسعهدهندگان کاربردهای LLM و دانشمندان دادهای نوشته شده است که بهدنبال بلوکهای سازندهٔ پایدار و قابلآزمون برای بازیابی، خلاصهسازی و رتبهبندی هستند. همچنین برای رهبران فنی و معمارانی که در حال طراحی ابزارهای LLM در سطح تولیداند، و تیمهایی که مأمور نوسازی پایپلاینهای قدیمی NLP به سیستمهای RAG و ایجنتی مقاوم هستند، گزینهای ایدهآل بهشمار میرود.
کتاب Building Natural Language and LLM Pipelines چه مباحثی را پوشش میدهد؟
فصل ۱، مقدمهای بر پایپلاینهای پردازش زبان طبیعی، بحران قابلیت اطمینان ایجنتی در سال ۲۰۲۵ را تعریف میکند و پایپلاینهای کلاسیک داده را بهعنوان لایهٔ بنیادین قابلیت اطمینان برای ایجنتهای خودمختار بازتعریف میکند.
فصل ۲، بررسی عمیق مدلهای زبانی بزرگ، مهندسی کانتکست را بهعنوان یک رشتهٔ رسمی معرفی کرده و سیر تحول مدلها را از پایههای ۲۰۲۳ تا موتورهای استدلال تخصصی ۲۰۲۵ دنبال میکند.
فصل ۳، مقدمهای بر Haystack از deepset، معماری صریح و مبتنی بر گراف Haystack 2.0 را برای ساخت ابزارهایی با قراردادهای دادهای سختگیرانه بررسی میکند.
فصل ۴، ترکیب مؤلفهها – پایپلاینهای Haystack برای کاربردهای مختلف، نحوهٔ ساخت پایپلاینهای RAG در سطح تولید (ایندکسینگ، چندوجهی و هیبریدی) را برای حل مسائل پیچیدهٔ بازیابی نشان میدهد.
فصل ۵، توسعهٔ پایپلاین Haystack با مؤلفههای سفارشی، بر گسترش چارچوب Haystack با ساخت مؤلفههای تخصصی تمرکز دارد.
فصل ۶، ساخت سیستمهای RAG تکرارپذیر و آمادهٔ تولید، گذار از آزمایش به مهندسی را با استفاده از Docker و uv تشریح میکند.
فصل ۷، استقرار برنامههای مبتنی بر Haystack، راهبردهای مختلف استقرار را مقایسه میکند.
فصل ۸، پروژههای عملی، تز «ابزار در برابر ارکستراسیون» را از طریق پروژههایی در NLP کلاسیک بهکار میگیرد.
فصل ۹، روندهای آینده و فراتر از آن، لبهٔ پیشرو سال ۲۰۲۶ را بررسی میکند.
فصل ۱۰، موخره: معماری هوش مصنوعی ایجنتی، جمعبندی نهایی مسیر کتاب را ارائه میدهد.
چگونه بیشترین استفاده را از کتاب Building Natural Language and LLM Pipelines بکنیم؟
برای استفادهٔ مؤثر از کتاب Building Natural Language and LLM Pipelines، داشتن تسلط مناسب بر پایتون ضروری است. کتاب Building Natural Language and LLM Pipelines راهنمایی فنی و مبتنی بر کد است که برای متخصصانی نوشته شده که قصد دارند از اسکریپتهای آزمایشی به معماری سامانههای ایجنتی مقاوم، کانتینری و حالتمند گذار کنند. این اثر برای کاربران غیرفنی یا علاقهمندان به راهحلهای بدون کدنویسی طراحی نشده است.
سرفصلهای کتاب Building Natural Language and LLM Pipelines:
- Preface
- Part 1: The Foundation of Reliable AI
- Chapter 1: Introduction to Natural Language Processing Pipelines
- Chapter 2: Diving Deep into Large Language Models
- Part 2: Building The Tool Layer with Haystack
- Chapter 3: Introduction to Haystack by deepset
- Chapter 4: Bringing Components Together – Haystack Pipelines for Different Use Cases
- Chapter 5: Haystack Pipeline Development with Custom Components
- Chapter 6: Building Reproducible and Production-Ready RAG Systems
- Part 3: Deployment and Agentic Orchestration
- Chapter 7: Deploying Haystack-Based Applications
- Chapter 8: Hands-On Projects
- Part 4: The Future of Agentic AI
- Chapter 9: Future Trends and Beyond
- Chapter 10: Epilogue: The Architecture of Agentic AI
- Chapter 11: Unlock Your Exclusive Benefits
- Other Books You May Enjoy
- Index
جهت دانلود کتاب Building Natural Language and LLM Pipelines میتوانید پس از پرداخت، دریافت کنید.

دیدگاهها
هیچ دیدگاهی برای این محصول نوشته نشده است.