<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>MoE on Text Matrix</title><link>https://0f9f3b1c.text-matrix.pages.dev/tags/moe/</link><description>Recent content in MoE on Text Matrix</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Wed, 08 Apr 2026 11:10:11 +0800</lastBuildDate><atom:link href="https://0f9f3b1c.text-matrix.pages.dev/tags/moe/index.xml" rel="self" type="application/rss+xml"/><item><title>MiniMind：从零开始用3块钱训练64M参数的大语言模型</title><link>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/llm/minimind-llm-training-from-scratch/</link><pubDate>Sun, 29 Mar 2026 15:51:00 +0800</pubDate><guid>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/llm/minimind-llm-training-from-scratch/</guid><description>&lt;h1 id="minimind从零开始用3块钱训练64m参数的大语言模型">MiniMind：从零开始用3块钱训练64M参数的大语言模型&lt;/h1>
&lt;h2 id="一项目概览">一、项目概览&lt;/h2>
&lt;p>&lt;strong>MiniMind&lt;/strong> 是由 jingyaogong 开发的开源大语言模型训练项目，其核心理念是&amp;quot;大道至简&amp;quot;——让每个人都能从零开始，仅用约 3 元钱成本与 2 小时训练时间，即可训练出规模约为 64M 参数的超小型语言模型 MiniMind。&lt;/p></description></item></channel></rss>