faviconSEO Hub HK

Google 更新 Googlebot 抓取檔案大小限制

發佈日期: 2026年2月4日 | 撰文: Aubrey Yung

Google 在2026年2月3日更新了官方文檔,首次清楚列出 Googlebot 在抓取與索引不同檔案類型時的大小限制。雖然對大部分網站影響不大,但對內容偏重、PDF 很多、或技術 SEO 較進階的網站來說,這些限制值得特別留意。

Googlebot 的最新檔案爬取限制

根據 Google 說明文件,Googlebot 在抓取內容時,會根據檔案類型設定不同的上限:

  • 一般網頁(HTML) Googlebot 最多只會抓取前 15MB 的內容。 超過這個大小的內容將不會被抓取或用作索引。
  • 支援的檔案類型(例如 CSS、JavaScript、純文字等) 多數情況下,抓取上限為 2MB
  • PDF 檔案(用於 Google 搜尋) Googlebot 對 PDF 的爬取上限較高,可達 64MB

當 Googlebot 達到該檔案類型的上限後,便會停止下載,其後的內容將不會被納入索引考量。

這對 SEO 有甚麼實際影響?

對大多數網站而言,一般不會真正觸及這些上限,但以下情況需要特別注意:

  • 單一頁面內容極長(例如完整產品目錄、條款全文、或一次載入大量資料)
  • 使用大型 inline JavaScript 或 CSS
  • 將大量內容「全部塞進同一頁」而非分頁
  • 依賴 PDF 作為主要內容頁(如白皮書、研究報告、政府文件)

如果重要內容放在檔案後段,而超出了 Googlebot 的爬取上限,即使使用者能看到,Google 也未必能索引到

對網站管理者與 SEO 的建議

  • 確保關鍵內容放在頁面前段(HTML 結構上)
  • 避免不必要的程式碼膨脹,尤其是 inline JavaScript / CSS
  • 大型內容可考慮拆分為多頁,或使用清晰的內部連結
  • PDF 仍然可以被索引,但不應完全取代 HTML 內容頁

關於作者

Aubrey Yung

Aubrey Yung

SEO 專家

Aubrey 是一位 SEO 顧問,亦是 Google Search Central 產品專家,擁有多年的 B2B 和 B2C 數碼營銷經驗。

相關 SEO 新聞

2026年3月30日

Google 推出全新 Google-Agent 用戶代理

Google 於 2026 年 3 月 20 日正式將 Google-Agent 列入其「用戶觸發爬取工具」(User-Triggered Fetchers)清單,並已開始逐步向外推出。這是 Google 首個專門用於標識 AI 代理流量的工具,讓網站管理員首次能在伺服器日誌中清楚區分傳統爬蟲訪問與由真實用戶驅動的 AI 代理行為。

2026年3月27日

Google 擴展論壇及問答頁面結構化數據支援

Google 於 3 月 24 日更新結構化數據文件,為 QAPage 及 DiscussionForumPosting 兩種 Schema 類型新增多個支援屬性。新屬性讓站長能更清晰地標示回覆數量、引用或分享內容,以及貼文是否由 AI 或機器人生成,有助 Google 系統理解對論壇及問答頁面結構。