<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>Reto的学习日记</title>
    <link>https://monolith-server.1554790871.workers.dev</link>
    <description>在AI Infra，Video Generation，Multimodal LLMs，World Models等领域的学习小记</description>
    <language>zh-CN</language>
    <lastBuildDate>Fri, 08 May 2026 10:54:27 GMT</lastBuildDate>
    <atom:link href="https://monolith-server.1554790871.workers.dev/rss.xml" rel="self" type="application/rss+xml"/>
    <item>
      <title>Nano-vLLM 学习教程</title>
      <link>https://monolith-server.1554790871.workers.dev/posts/nano-vllm-i1yfhck0po3v</link>
      <guid isPermaLink="true">https://monolith-server.1554790871.workers.dev/posts/nano-vllm-i1yfhck0po3v</guid>
      <description>&gt; 面向 AI Researcher 的 vLLM 最小运行逻辑导览
&gt;
&gt; 代码仓库：`GeeeekExplorer/nano-vllm`，约 1,383 行 Python，实现了 vLLM 的离线批推理核心路径。本教程按照 README 中的 **Key Features** 展开，逐一对照代码讲解。</description>
      <pubDate>Fri, 08 May 2026 09:13:54 GMT</pubDate>
    </item>
    <item>
      <title>Nano-vLLM-Omni 学习教程</title>
      <link>https://monolith-server.1554790871.workers.dev/posts/nano-vllm-omni-i1yfhck0po3v</link>
      <guid isPermaLink="true">https://monolith-server.1554790871.workers.dev/posts/nano-vllm-omni-i1yfhck0po3v</guid>
      <description>&gt; 面向 AI Researcher 的 vLLM-Omni 最小可运行路径导读。
&gt;
&gt; 本文以 `README.md` 中的 **Key Features** 为主线，结合真实源码片段，把 `request -&gt; scheduler -&gt; runner -&gt; pipeline` 这条扩散模型推理链路拆开讲清楚。读完之后你应该能：
&gt;
&gt; 1. 复现 `OmniLLM.generate()` 的调用路径；
&gt; 2. 理解为什么扩散模型的&quot;engine&quot;和 LLM 的&quot;engine&quot;形状相似；
&gt; 3. 快速改造出自己的调度器或 pipeline 适配器。</description>
      <pubDate>Fri, 08 May 2026 09:11:47 GMT</pubDate>
    </item>
  </channel>
</rss>