近期Google的2MB網頁抓取限制:查證結果與完整解析!

作者:網頁設計師 於 2026-03-09 20:00:00 ‧ 958次閱讀
近期Google的2MB網頁抓取限制:查證結果與完整解析!

最近在Reddit跟Threads以及許多SEO專家,發表Google只抓取2MB網頁的消息,我們進行了一些求證與實作超過限制的網頁會如何,以下可以參考我們的分析。

「Google只抓取2MB的網頁」這個說法基本屬實,但需要重要的限定條件。 2026年2月3日,Google更新了官方文件,明確指出 Googlebot 在為 Google Search 抓取網頁時,僅處理前 2MB的未壓縮HTMLSearch Engine Roundtable  Google而Google整體爬蟲基礎架構的預設上限仍為 15MBGoogle  SketchwebPDF檔案則享有 64MB 的額外寬容。 ALM Corp +2Google強調這不是新的行為變化,而是將長期存在的內部限制正式記錄下來。 SEO-Kreativ +2對絕大多數網站而言,這項限制幾乎沒有實際影響——網頁HTML的中位數僅約 33KBSearch Engine Journal遠低於2MB門檻, Spotibo SEO  SEO-Kreativ超過2MB的網頁僅佔所有頁面的 0.82%Seobility


Google官方文件怎麼說

2026年2月3日,Google對其爬蟲文件進行了重大重組, Spotibo SEO將原本放在 Search Central 的爬蟲資訊拆分為兩層架構。 Search Engine Journal第一層是 Googlebot 專頁(適用於 Google Search),明確載明:

「When crawling for Google Search, Googlebot crawls the first 2MB of a supported file type, and the first 64MB of a PDF file... The file size limit is applied on the uncompressed data.」 Search Engine Roundtable  Google

第二層是通用爬蟲概覽頁面,說明 Google 所有爬蟲與擷取器的預設上限為 15MBSearch Engine Journal +2值得注意的是,Google在短短9天內對文件進行了三次修訂SEO-Kreativ2月11日的第三版將措辭從確定性的「2MB」軟化為「a Google crawler like Googlebot may have a smaller size limit (for example, 2MB)」——「 Googlefor example」這個用詞讓2MB更像是參考值而非絕對硬限制,儘管實際測試確認截斷確實發生在2MB處。 SEO-Kreativ +2

Google的官方解釋是:這次更新是因為將爬蟲資訊從 Search Central 遷移到獨立的爬蟲基礎架構文件站時,順便更精確地記錄了 Googlebot 自身的限制。 Search Engine Roundtable +2Google Search Advocate John Mueller 在 Bluesky 和 Reddit 上多次澄清:「None of these recently changed, we just wanted to document them in more detail.」Search Engine Roundtable這些限制最近沒有改變,我們只是想更詳細地記錄它們。) Spotibo SEO  Search Engine Roundtable


2MB限制的技術細節與適用範圍

理解這個限制需要掌握幾個關鍵的技術區別。首先,2MB指的是未壓縮的原始HTML檔案大小,不是經由gzip或Brotli壓縮後的傳輸大小。 Keytomic +4一個壓縮後僅500KB的檔案,解壓後若超過2MB,仍會被截斷。 PPC Land +2

其次,這個限制是逐檔計算的。 SeomarketingsgHTML文件有2MB的額度,而頁面引用的每個外部CSS和JavaScript檔案都是獨立抓取的,各自擁有自己的2MB額度。 Browser Media +3透過 標籤引用的圖片由 Googlebot Image 處理,適用不同的限制,不受2MB約束Spotibo SEO行內嵌入的Base64圖片、行內CSS和行內JavaScript則會計入HTML的2MB預算。 DebugBear  Keytomic

檔案類型限制適用爬蟲
HTML及支援的文字檔案2MB(未壓縮)Googlebot(Google Search)
PDF64MBGooglebot(Google Search)
外部CSS/JS(每檔)2MB(未壓縮)Googlebot(Google Search)
圖片另有規定Googlebot Image
所有檔案類型(預設)15MBGoogle通用爬蟲

達到2MB上限時,Googlebot會立即停止下載,僅將已下載的部分送交索引。 Search Engine Land +2這意味著放在頁面底部的內容——包括頁尾連結、底部的結構化資料(JSON-LD)、以及文末的文字內容——都有被截斷的風險。 CaptainDNS


這是新政策還是早就存在的限制

這不是新的行為變化,而是長期存在的內部限制首次被明確記錄。 Search Engine Journal  TechWyse 追溯歷史,Google的爬取大小限制經歷了以下演變:

2022年6月以前,Google從未公開記錄任何爬取大小限制。 Nitropack2021年John Mueller甚至在社群媒體上表示「we don't have a documented limit」(我們沒有記錄的限制)。** Search Engine Roundtable2022年6月28日**,Google首次公開發表部落格文章〈Googlebot and the 15 MB thing〉,記錄了15MB的限制,但當時Mueller就已確認「這個限制不是新的」。 Search Engine Journal

2MB限制的浮出水面源於 Google Search Central 幫助社群中的一個討論串。 DebugBear使用者 Mark van Ments 發現其網站內容被截斷, DebugBearGoogle Search Central 鑽石級產品專家 Dave Smart 與Google團隊確認後, DebugBear一位Google代表回覆:「I've heard back from the team, and indeed it looks like documentation was wrong, and that Googlebot only looks at the first 2 MB of raw html. Documentation is being updated.」 DebugBear 這段話暗示15MB的文件說明其實是不精確的,Googlebot for Search 的實際行為一直就是2MB。

值得一提的是,2024至2025年間的Google核心演算法更新(2024年3月、8月、11月核心更新)均與爬取大小限制無關。2026年2月5日的 Discover Core Update 雖然時間相近,但也是完全不同的議題。 Google


SEO社群的反應與共識

SEO社群對此議題迅速形成了兩個陣營。務實派佔據主流,包括 John Mueller 本人、Dave Smart、Search Engine Journal 的 Roger Montti 等人,一致認為這對絕大多數網站不構成實際問題。Mueller 直白地說:「nobody's going to read 1,000 pages of text (equivalent of 2MB) in search of something that's on page 1,001. If you want to publish a novel, make it a PDF.」(沒有人會讀1,000頁的文字去找第1,001頁的東西。想發表小說的話,用PDF。) Search Engine Roundtable

SEO工具公司 Seobility 分析了4,450萬個頁面,發現僅 0.82% 超過2MB。 SeobilityHTTP Archive 的資料顯示,行動端HTML中位數約 22-33KB,第90百分位也僅 151KBSearch Engine Roundtable +22MB大約等於200萬個字元,相當於將一本400頁小說塞進單一網頁。 Nikki Pilkington +2

Spotibo 進行了最具價值的實證測試,建立了3MB和16MB的測試頁面並提交Google索引。 Spotibo SEO結果發現3MB頁面的原始碼在約第15,210行被截斷(「Prevention is b」之後直接接上 ),但 Google Search Console 仍顯示「URL is on Google」和「Page is indexed」——完全沒有任何警告或錯誤提示Spotibo SEO更具欺騙性的是,Search Console 的「網址檢查工具」顯示了完整的原始碼,因為該工具使用的是「Google-InspectionTool」爬蟲(適用15MB限制),而非實際索引用的 Googlebot(2MB限制)。 Spotibo SEO

部分SEO從業者對此提出了尖銳批評。部落格 Browser Media 寫道:「Cue dramatic threads. Cue think pieces. Cue the inevitable 'this changes everything' hot takes. It really doesn't.」 Browser MediaSEO專家 Nikki Pilkington 則警告:「如果有人聯繫你說你的HTML檔案大小有問題,先問他們你目前的HTML大小是多少。如果他們說不出來,他們賣的是恐懼,不是幫助。」 Nikki Pilkington


對網站SEO的實際影響評估

99%以上的網站 而言,2MB限制不會造成任何影響。但以下幾類網站需要特別注意:

  • 大型電商網站:擁有大量產品變體、篩選器和個性化內容的頁面( SEO-KreativSeobility發現 Zalando 約2.6MB、OMR Reviews 約3.4MB) Seobility
  • 使用頁面建構器的網站:Elementor、Divi、WPBakery 等工具產生的冗長HTML GBIM
  • 行內嵌入Base64圖片的網站:這些圖片直接計入HTML預算 DebugBear  Niara
  • SPA(單頁應用程式):包含大型 window.INITIAL_STATE 水合資料的頁面 PPC Land  Attila's Blog
  • 含有大量追蹤程式碼和行內腳本的網站 Stan Ventures

實務上最大的風險在於截斷是無聲的。Google Search Console 不會發出任何警告, Spotibo SEO而網址檢查工具因使用不同的爬蟲反而會誤導站長以為一切正常。 Spotibo SEO建議使用 Screaming Frog(查看「Size」欄位,即未壓縮大小) SEO-Kreativ或 Dave Smart 開發的 Tame The Bots Fetch and Render Tool(已新增「Cap text to 2MB」模擬功能)來檢測頁面大小。 SEO-Kreativ +2

如果頁面確實超過2MB,最重要的SEO影響是:放在頁面底部的關鍵內容可能不被索引——包括結構化資料(JSON-LD)、頁尾導航連結、以及文章末段的文字。 ITXITPro  CaptainDNS解決方案包括將關鍵內容和結構化資料移到HTML頂部、將行內CSS/JS外部化、移除行內Base64圖片改用外部圖片URL、以及精簡不必要的HTML標記。 Seobility  Sketchweb


結論:文件澄清帶來的認知修正

這次事件的核心意義不在於Google改變了什麼,而在於SEO社群發現過去記錄的15MB限制對Googlebot而言從未準確Keytomic  Search Engine Journal真正的Googlebot for Search 限制一直是2MB,只是直到用戶實際遭遇截斷問題並向Google回報後,才促使官方修正文件。 DebugBear三次修訂在九天內完成,加上措辭的反覆軟化,顯示Google自身在溝通這個技術細節時也經歷了摸索。 SEO-Kreativ  seo-kreativ

對SEO從業者的關鍵啟示是:與其擔心2MB限制本身,不如關注為什麼你的HTML會接近2MB——這通常意味著更根本的技術債務問題,例如過度臃腫的標記、未優化的行內資源、或糟糕的頁面架構。 Tame The BotsJohn Mueller 建議的簡單檢測方法是:搜尋頁面下方某段重要文字的精確引號,如果Google能回傳該頁面,就表示整個文件都被成功索引了。 Search Engine Roundtable +2

重要參考來源:

來源連結
Google官方Googlebot文件https://developers.google.com/search/docs/crawling-indexing/googlebot
Google通用爬蟲概覽https://developers.google.com/crawling/docs/crawlers-fetchers/overview-google-crawlers
Google 2022年部落格〈Googlebot and the 15 MB thing〉https://developers.google.com/search/blog/2022/06/googlebot-15mb
Search Engine Roundtable 報導https://www.seroundtable.com/googlebot-file-limits-40876.html
Search Engine Journal 報導https://www.searchenginejournal.com/google-updates-googlebot-file-size-limit-docs/566485/
Search Engine Land 報導https://searchengineland.com/google-lists-googlebot-file-limits-for-crawling-468226
Spotibo 實證測試https://spotibo.com/google-2mb-limit-test
DebugBear 分析https://www.debugbear.com/blog/googlebot-crawler-file-size-limit
Seobility 數據分析https://www.seobility.net/en/blog/google-reduces-crawl-limit-to-2-mb/
Dave Smart / Tame The Bots 分析https://tamethebots.com/blog-n-bits/2mb-of-html
SEO-Kreativ 文件修訂時間線https://www.seo-kreativ.de/en/blog/googlebot-2mb-crawl-limit-changes/
其他新聞