<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Google Research on Text Matrix</title><link>https://0f9f3b1c.text-matrix.pages.dev/tags/google-research/</link><description>Recent content in Google Research on Text Matrix</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Wed, 08 Apr 2026 11:10:11 +0800</lastBuildDate><atom:link href="https://0f9f3b1c.text-matrix.pages.dev/tags/google-research/index.xml" rel="self" type="application/rss+xml"/><item><title>TimesFM：Google Research 时间序列基础模型完全指南</title><link>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/timesfm-google-time-series-foundation-model-guide/</link><pubDate>Mon, 06 Apr 2026 21:28:00 +0800</pubDate><guid>https://0f9f3b1c.text-matrix.pages.dev/posts/tech/timesfm-google-time-series-foundation-model-guide/</guid><description>&lt;h2 id="学习目标">学习目标&lt;/h2>
&lt;p>通过本文，你将全面掌握以下核心能力：&lt;/p>
&lt;ul>
&lt;li>深入理解 TimesFM 的项目定位、技术架构和 1-bit 预测原理&lt;/li>
&lt;li>掌握 TimesFM 2.5 的核心升级（200M 参数、16k 上下文、连续分位数预测）&lt;/li>
&lt;li>学会使用 PyTorch 和 Flax 两种后端进行时间序列预测&lt;/li>
&lt;li>理解 XReg 共变量支持和高频/低频时间序列处理&lt;/li>
&lt;li>掌握在 BigQuery 和 Hugging Face 上的部署方法&lt;/li>
&lt;li>理解 AGENTS.md 技能入口和 AI Agent 集成&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="1-项目概述">1. 项目概述&lt;/h2>
&lt;h3 id="11-是什么">1.1 是什么&lt;/h3>
&lt;p>TimesFM（Time Series Foundation Model）是 Google Research 开发的&lt;strong>预训练时间序列基础模型&lt;/strong>，专门用于时间序列预测任务。&lt;/p></description></item></channel></rss>