<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>PyTorch on Text Matrix</title><link>https://0f9f3b1c.text-matrix.pages.dev/tags/pytorch/</link><description>Recent content in PyTorch on Text Matrix</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Wed, 08 Apr 2026 11:10:11 +0800</lastBuildDate><atom:link href="https://0f9f3b1c.text-matrix.pages.dev/tags/pytorch/index.xml" rel="self" type="application/rss+xml"/><item><title>Hugging Face Transformers：最强大的 NLP 库完全指南</title><link>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/transformers-huggingface-nlp-guide/</link><pubDate>Mon, 06 Apr 2026 22:19:00 +0800</pubDate><guid>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/transformers-huggingface-nlp-guide/</guid><description>&lt;h2 id="学习目标">学习目标&lt;/h2>
&lt;p>通过本文，你将全面掌握以下核心能力：&lt;/p>
&lt;ul>
&lt;li>深入理解 Transformers 的项目定位、核心概念和设计理念&lt;/li>
&lt;li>掌握 Transformers 的安装、环境配置和依赖管理&lt;/li>
&lt;li>学会使用 Pipeline 进行推理&lt;/li>
&lt;li>理解 AutoModel 和 AutoTokenizer 的工作机制&lt;/li>
&lt;li>掌握模型微调（Fine-tuning）的完整流程&lt;/li>
&lt;li>理解多模态模型（文本、音频、图像）的使用方法&lt;/li>
&lt;li>学会使用 Trainer API 和自定义训练循环&lt;/li>
&lt;li>掌握性能优化和推理加速技巧&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="1-项目概述">1. 项目概述&lt;/h2>
&lt;h3 id="11-是什么">1.1 是什么&lt;/h3>
&lt;p>&lt;strong>Transformers&lt;/strong> 是 Hugging Face 开发的&lt;strong>最强大的 NLP 库&lt;/strong>，它提供了预训练模型的 API 和工具，让你可以轻松下载和微调最前沿（SOTA）的预训练模型。&lt;/p></description></item><item><title>TimesFM：Google Research 时间序列基础模型完全指南</title><link>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/timesfm-google-time-series-foundation-model-guide/</link><pubDate>Mon, 06 Apr 2026 21:28:00 +0800</pubDate><guid>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/timesfm-google-time-series-foundation-model-guide/</guid><description>&lt;h2 id="学习目标">学习目标&lt;/h2>
&lt;p>通过本文，你将全面掌握以下核心能力：&lt;/p>
&lt;ul>
&lt;li>深入理解 TimesFM 的项目定位、技术架构和 1-bit 预测原理&lt;/li>
&lt;li>掌握 TimesFM 2.5 的核心升级（200M 参数、16k 上下文、连续分位数预测）&lt;/li>
&lt;li>学会使用 PyTorch 和 Flax 两种后端进行时间序列预测&lt;/li>
&lt;li>理解 XReg 共变量支持和高频/低频时间序列处理&lt;/li>
&lt;li>掌握在 BigQuery 和 Hugging Face 上的部署方法&lt;/li>
&lt;li>理解 AGENTS.md 技能入口和 AI Agent 集成&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="1-项目概述">1. 项目概述&lt;/h2>
&lt;h3 id="11-是什么">1.1 是什么&lt;/h3>
&lt;p>TimesFM（Time Series Foundation Model）是 Google Research 开发的&lt;strong>预训练时间序列基础模型&lt;/strong>，专门用于时间序列预测任务。&lt;/p></description></item><item><title>Agent Lightning：微软 AI 智能体强化学习训练框架完全指南</title><link>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/ai-agent/agent-lightning-microsoft-ai-agent-training-guide/</link><pubDate>Wed, 01 Apr 2026 01:20:00 +0800</pubDate><guid>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/ai-agent/agent-lightning-microsoft-ai-agent-training-guide/</guid><description>&lt;h1 id="agent-lightning微软-ai-智能体强化学习训练框架完全指南">Agent Lightning：微软 AI 智能体强化学习训练框架完全指南&lt;/h1>
&lt;h2 id="1-学习目标">§1 学习目标&lt;/h2>
&lt;p>完成本文档后，你将能够：&lt;/p>
&lt;ul>
&lt;li>✅ 理解 Agent Lightning 的核心定位与设计理念&lt;/li>
&lt;li>✅ 掌握 Agent Lightning 的安装与基本使用方法&lt;/li>
&lt;li>✅ 理解 Agent Lightning 的架构设计与 LightningStore 原理&lt;/li>
&lt;li>✅ 使用 Agent Lightning 训练任意框架的智能体&lt;/li>
&lt;li>✅ 配置强化学习、自动提示优化、监督微调等算法&lt;/li>
&lt;li>✅ 利用轨迹级聚合（TLA）加速训练&lt;/li>
&lt;li>✅ 构建生产级别的智能体训练流程&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="2-项目概述">§2 项目概述&lt;/h2>
&lt;h3 id="21-什么是-agent-lightning">2.1 什么是 Agent Lightning？&lt;/h3>
&lt;p>&lt;strong>Agent Lightning&lt;/strong>（&lt;a href="https://github.com/microsoft/agent-lightning" target="_blank" rel="noopener noreffer ">GitHub 仓库&lt;/a>）是微软研究院开发的 AI 智能体训练框架，核心理念是「The absolute trainer to light up AI agents」。&lt;/p></description></item><item><title>AutoResearch：AI 自主科研智能体完全指南</title><link>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/ai-agent/autoresearch-ai-autonomous-research-guide/</link><pubDate>Tue, 31 Mar 2026 15:05:00 +0800</pubDate><guid>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/ai-agent/autoresearch-ai-autonomous-research-guide/</guid><description>&lt;h1 id="autoresearchai-自主科研智能体完全指南">AutoResearch：AI 自主科研智能体完全指南&lt;/h1>
&lt;h2 id="1-学习目标">§1 学习目标&lt;/h2>
&lt;p>完成本文档后，你将能够：&lt;/p>
&lt;ul>
&lt;li>✅ 理解 AutoResearch 的核心思想与愿景&lt;/li>
&lt;li>✅ 掌握 AutoResearch 的技术架构&lt;/li>
&lt;li>✅ 熟练部署和运行 AutoResearch 实验环境&lt;/li>
&lt;li>✅ 理解三个核心文件的作用（prepare.py / train.py / program.md）&lt;/li>
&lt;li>✅ 使用 AI 智能体自主运行实验&lt;/li>
&lt;li>✅ 理解 val_bpb 评估指标&lt;/li>
&lt;li>✅ 根据硬件平台调整超参数&lt;/li>
&lt;li>✅ 为不同平台（MacOS/Windows/AMD）贡献移植版本&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="2-项目概述">§2 项目概述&lt;/h2>
&lt;h3 id="21-什么是-autoresearch">2.1 什么是 AutoResearch？&lt;/h3>
&lt;p>&lt;strong>AutoResearch&lt;/strong>（官方仓库：&lt;a href="https://github.com/karpathy/autoresearch" target="_blank" rel="noopener noreffer ">karpathy/autoresearch&lt;/a>）是 &lt;strong>AI 自主科研智能体&lt;/strong>项目，核心理念是让 AI 智能体像人类研究员一样自主进行 LLM 训练实验。&lt;/p></description></item><item><title>WorldMonitor 地缘政治监测系统：从入门到精通 AI预测分析平台</title><link>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/worldmonitor-geopolitical-monitoring-system-guide/</link><pubDate>Tue, 31 Mar 2026 03:00:00 +0800</pubDate><guid>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/worldmonitor-geopolitical-monitoring-system-guide/</guid><description>&lt;h1 id="worldmonitor-地缘政治监测系统从入门到精通">WorldMonitor 地缘政治监测系统：从入门到精通&lt;/h1>
&lt;blockquote>
&lt;p>&lt;strong>目标读者&lt;/strong>：地缘政治研究者、国际关系分析师、金融市场从业者、AI 预测领域开发者
&lt;strong>前置知识&lt;/strong>：了解国际关系基础概念、有 Python 数据分析经验
&lt;strong>预计学习时间&lt;/strong>：1-2 小时（入门），4-6 小时（精通）&lt;/p></description></item><item><title>MiniMind：从零开始用3块钱训练64M参数的大语言模型</title><link>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/llm/minimind-llm-training-from-scratch/</link><pubDate>Sun, 29 Mar 2026 15:51:00 +0800</pubDate><guid>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/llm/minimind-llm-training-from-scratch/</guid><description>&lt;h1 id="minimind从零开始用3块钱训练64m参数的大语言模型">MiniMind：从零开始用3块钱训练64M参数的大语言模型&lt;/h1>
&lt;h2 id="一项目概览">一、项目概览&lt;/h2>
&lt;p>&lt;strong>MiniMind&lt;/strong> 是由 jingyaogong 开发的开源大语言模型训练项目，其核心理念是&amp;quot;大道至简&amp;quot;——让每个人都能从零开始，仅用约 3 元钱成本与 2 小时训练时间，即可训练出规模约为 64M 参数的超小型语言模型 MiniMind。&lt;/p></description></item></channel></rss>