這裏顯示兩個版本的差異處。
Both sides previous revision 前次修改 下次修改 | 前次修改 | ||
playground:pg5_seo [2023/04/10 14:43] kenski |
playground:pg5_seo [2024/04/01 14:43] (目前版本) kenski [PG04 關於SEO] |
||
---|---|---|---|
行 1: | 行 1: | ||
- | =====Pg10 關於SEO===== | + | =====PG05 關於SEO===== |
- | SEO最佳化按照Google的講法應該要花掉10%的時間與功夫在其上(另90%在內容本身),隨著search engine的進步,最佳化已經不是站大當初去蕃薯藤、KIMO填表輸入網站標題、網址、描述然後等候搜尋引擎編目,現今搜尋引擎會主動用更系統化的方式編目與分析。 | + | |
- | + | *SEO最佳化按照Google的講法應該要花掉10%的時間與功夫在其上(另90%在內容本身),隨著search engine的進步,最佳化已經不是站大當初去蕃薯藤、KIMO填表輸入網站標題、網址、描述然後等候搜尋引擎編目,現今搜尋引擎會主動用更系統化的方式編目與分析。 | |
- | 因此除了sitemap.xml((dokuwiki會自動產生))可以告訴搜尋引擎有哪些網頁想被編目,robots.txt可以告訴搜尋引擎的bot那些目錄不想被crawl,我們也必須在網頁上留下對應的資訊(html的meta description或keyword)以提供系統化的資訊,而在dokuwiki的plugin中semantic可以幫我們自動產生依據**schema.org規範**的格式資料,meta description及author及json與open graph規格的資訊,省卻我們(我們自己要添加meta到dokuwiki程式產生的頁面也很難)手動的麻煩,semantic plugin會自動將網頁的前段文字500字做為description,Aurthor資訊就是dokuwiki的作者,剩下的還是等待搜尋引擎的編目後進行修正,這部分有bing webmaster tool與google search console可以查看報告。 | + | *因此除了sitemap.xml((dokuwiki會自動產生))可以告訴搜尋引擎有哪些網頁想被編目,robots.txt可以告訴搜尋引擎的bot那些目錄不想被crawl,我們也必須在網頁上留下對應的資訊(html的meta description或keyword)以提供系統化的資訊,而在dokuwiki的plugin中semantic可以幫我們自動產生依據**schema.org規範**的格式資料,meta description及author及json與open graph規格的資訊,省卻我們(我們自己要添加meta到dokuwiki程式產生的頁面也很難)手動的麻煩,semantic plugin會自動將網頁的前段文字500字做為description,Aurthor資訊就是dokuwiki的作者,剩下的還是等待搜尋引擎的編目後進行修正,這部分有bing webmaster tool與google search console可以查看報告。 |
+ | < | ||
+ | [< | ||
==== Plugin幫助SEO工作 ==== | ==== Plugin幫助SEO工作 ==== | ||
行 14: | 行 15: | ||
{{keywords> | {{keywords> | ||
</ | </ | ||
+ | [< | ||
==== SEO優化 ft. Dokuwiki ==== | ==== SEO優化 ft. Dokuwiki ==== | ||
=== 多個H1標籤 === | === 多個H1標籤 === | ||
行 26: | 行 28: | ||
[< | [< | ||
- | < | + | |
- | [< | + |