本指南旨在幫助網站管理員和內部團隊進行技術 SEO 分析,並分享我們在完成網站分析時需要考慮的一些常見方面。有些網站管理員可能認為技術SEO是一個一次性專案。雖然您通常不需要每月執行完整的技術搜尋引擎優化,但它應該是您整體數位策略的重要組成部分。
我們建議您每年至少進行一次全面審核。還建議每月完成定期的技術 SEO 掃描和爬行,這些將提供有關您可以修復的方面的大量建議。您還應該每週監控Google Search Console和Bing 網站管理員工具,以確保 SEO 效能運作在最佳水準。
您需要什麼工具來執行適當的技術 SEO 網站審核?
為了充分利用我們的指南:
您需要擁有一個現有網站 - 如果您負責進行頁面更改,那麼您將需要對後端的管理存取權。
您將需要一個網頁爬蟲 - 我們推薦Sitebulb或Screaming Frog SEO Spider Tool & Crawler(這兩個應用程式都提供 7 天免費試用或有限數量的頁面爬行)。這就是您進行初步審核以發現問題所需的全部內容。
SEMrush — 強大的爬蟲程序,用於識別孤立頁面。
Ahrefs — 強大的爬蟲,用於識別反向連結、錨文本和關鍵字重疊。
網站地圖測試— 由 SEO SiteCheckup 進行。
您將需要造訪您網站的 Google Search Console。
提供。
您將需要一個網站速度 亞美尼亞電話號碼數據 測試 - 我們推薦GTmetrix - 建立使用者帳戶將使您能夠更好地控制該工具(例如,測試位置、連接速度等)或Pingdom。
結構化資料工具— 由 Google 提供。
行動裝置友善測試— 由 Google 提供。
Copyscape — 這是一個免費工具,可在網路上搜尋重複內容。
Siteliner — 在您自己的網站中尋找重複內容。

現在您已經擁有執行技術 SEO 網站審核所需的所有工具,讓我們開始吧?我們已將此清單分解為您可以完成分析的重要部分。
1.爬蟲能找到所有重要頁面嗎?
網路是一個不斷成長的圖書館,擁有數十億冊圖書,但沒有中央歸檔系統。索引可協助搜尋引擎快速找到搜尋查詢的相關文件。它透過使用網路爬蟲來做到這一點。
網路爬蟲(或簡稱爬蟲)是用來發現公開網頁的軟體。搜尋引擎使用爬蟲來存取和儲存 URL。它透過追蹤他們在任何給定網頁上可能找到的連結來實現此目的。
當 Googlebot 等抓取工具造訪某個網站時,它會要求名為「robots.txt」的檔案。文件告訴爬網程式可以要求哪些文件,以及不允許爬網哪些文件或子資料夾。
爬蟲的工作是從一個鏈接到另一個鏈接,並將有關這些網頁的數據帶回搜尋引擎的伺服器。