\

美國NASDAQ上市公司
外商IT教育培訓企業

0800-777-100


週一到週五 09:00~21:00 週六到週日 09:00~18:00

熱門課程

達內教育台灣 > 知識庫 > Python人工智慧

SEO優化-五分鐘學會設定網頁的 robots meta

  • 時間:2018-12-22
  • 發布:達內教育台灣
  • 來源:網路行銷課程

甚麼狀況下該使用 robots meta 與 robots.txt

robots meta 對 SEO 的操作上也是很重要。robots meta 與 robots.txt 都能向搜尋引擎宣告如何處理網頁。前者為阻止搜尋引擎索引你的頁面 (但搜尋引擎還是有抓取你的網站資料) ; robots.txt 則是全面阻止搜尋引擎抓取你的資料 (搜尋引擎會自動略過你指定的網站)。

當然,大多數的狀況,你不會讓 robots.txt 來阻止搜尋引擎抓取辛苦建立的網站。但是以若這個網站對你的 SEO 有負面影響、或是私密性高的話,就可以用robots.txt 來阻擋搜尋引擎抓取,常見的情況如下所示:
1. 多年前有經過黑帽 SEO 手法,卻還沒處理的網頁、
2. 施工中未完成的網頁等
3. 網站或是公司內部系統的登入頁面

若你只是希望這個網頁不要出現在搜尋引擎結果中的話,那用 robots meta 即可。

 

如何設定網站 robots.txt

【檔案存取位置】robots.txt 位於網站的根目錄下

【作用】告訴搜尋引擎哪些網站內容不要進行存取,並且可以指定 sitemap 的位置。

【路徑】如果你有建立並使用 robots.txt,則他的位置會是 http://網址/robots.txt,如果這個檔案不存在,則代表沒有使用 robots.txt。

【宣告類型】有五種,如下所示:
1. User-agent:指定哪一種搜尋引擎的爬蟲,如 Google 的爬蟲 「googlebot」或是百度的爬蟲等等(* 號代表全部)
2. Crawl-delay:限制爬蟲抓取每一頁的秒數限制,但是該設定會被 Google 跳過不處理。因為 Google 在網站管理員中,就有爬取頻率的設定。
3. Disallow:輸入你不允許被爬取的 URL 路徑
4. Allow:輸入你允許被爬取的 URL 路徑
5. Sitemap:告知搜尋引擎的 Sitemap 網址

這五種宣告類型如何編輯? 常見的如以下所示:


1. 拒絕所有的搜尋引擎爬蟲爬取你的網站:
User-agent:*
Disallow: /
2. 允許全部的搜尋引擎爬蟲爬取你的網站:
User-agent:*
Allow: /
3. 拒絕 Google 的搜尋引擎爬蟲爬取 /wp-admin 目錄
User-agent:*
Disallow: /wp-admin/
4. 只拒絕百度的搜尋引擎爬蟲,卻允許其他搜尋引擎 (如 Google、Yahoo、Yandax等等) 爬取
User-agent:Baiduspider
Disallow: /
User-agent:*
Allow: /
5. 拒絕搜尋引擎爬取特定類型的檔案
User-agent:*
Disallow: /*.ini$
Disallow: /*.jpg$
6. 實際網站完整 robots.txt
User-agent:*
Crawl-delay: 7
Disallow: /wp-admin/
Disallow: /cgi-bin/
Disallow: /readme.html/
Disallow: /*.ini$
sitemap: http://codingbomb.com.tw/sitemap.xml

 

robots.txt-如何設定?

舊版的 Google 網站管理員 Search Console 中,有 robots.txt 測試工具,他會模擬 Google 搜尋引擎爬蟲來檢查你的 robots.txt 的正確性。

Google的robots.txt測試工具|達內教育網路行銷課程

 

如何設定網站 robots meta

【檔案存取位置】robots meta 宣告置於網頁 HTML 的 <head>與</head>之間

【作用】宣告阻止搜尋引擎索引你的頁面 (但搜尋引擎還是有抓取你的網站資料) ,但是不引醒使用者瀏覽你的網頁

【語法】 <META NAME="屬性值#1" CONTENT="屬性值#2">

屬性值#1,為指定哪種搜尋,常用語法如下:
robots:所有搜尋引擎的爬蟲
googlebot:GOOGLE 搜尋引擎的爬蟲
bingbot:Bing 搜尋引擎的爬蟲
slurp:Yahoo 搜尋引擎的爬蟲
Baiduspider:百度搜尋引擎的爬蟲
AhrefsBot:Ahrefs.com的爬蟲
MJ12Bot:Majestic.com的爬蟲

屬性值#2,為指定處理方式,常見代碼如下
noindex:不要索引本網頁
nofollow:不要跟隨本網頁內的連結頁面
noarchive:不要儲存庫存網頁
nosnippet:不要在搜尋結果顯示描述或是快照
none:等於 noindex 與 nofollow
noimageindex:不要索引本網頁的圖片,只適用於 Google
unavailable_after:date:在指定日期後停止索引本頁

上一篇:網路行銷人員也該上的HTML5教學2-認識HTML表格標籤
下一篇:網路行銷人員也該上的HTML5教學1-認識HTML基礎標籤與免費網頁編輯器
使用平板電腦搜尋網頁的使用者圖片|SEO優化|達內教育

2018年SEO八部曲之1-秒懂你的使用者

等網頁Loading等到想睡著的男性圖片|SEO優化|達內教育

2018年SEO 8部曲之2-你的網頁夠快嗎?

使用Macbook搜尋網頁的貓咪圖片|SEO優化|達內教育

2018年SEO 8部曲之3-Title與Meta Description還是要做SEO優化

使用Macbook搜尋網頁的貓咪圖片|SEO優化|達內教育

2018年SEO 8部曲之4-原來URL也可以做SEO優化

使用Macbook搜尋網頁的貓咪圖片|SEO優化|達內教育

2018年SEO八部曲之5-圖片的 SEO 優化

使用平板電腦搜尋網頁的使用者圖片|SEO優化|達內教育

2018年SEO八部曲之7-Schema結構化資料

選擇城市和中心
貴州省

廣西省

海南省