{{ 'fb_in_app_browser_popup.desc' | translate }} {{ 'fb_in_app_browser_popup.copy_link' | translate }}

{{ 'in_app_browser_popup.desc' | translate }}

目錄 購物車 {{currentCart.getItemCount()}}
商品總數的上限為 100 件,請調整數量再點擊購買

 

News: Google 在 08/25/2022 釋出 "Helpful Content"——實用內容演算法更新

 

演算法是什麼?

 

很多人一想到演算法,腦海中便會浮現許多看不懂的艱澀數學公式。其實把它拆解後,演算法並沒有想像中的複雜與難以理解。

 

根據維基百科的說明,演算法就是在數學和電腦科學之中,一個被定義好、讓電腦可以執行的步驟或程序。

 

我們會常常把它用在計算、資訊處理、自動推理的領域上。

 

簡單來說,演算法就是可有效解決某個問題的一種程序

 

直接跳到:Google 演算法

 

演算法有什麼現實生活中好懂的比喻或範例?

 

演算法也可以用於生活之中,就像是我們常見的食譜 — 按照步驟,就能做出一道道的佳餚。

 

最簡單的煮飯大致會需要以下步驟:

 

  • 去市場買米
     
  • 回到家把要煮的米倒出來
     
  • 把米洗一洗
     
  • 放到電鍋、飯鍋內煮熟
     
  • 盛到碗裡面即可食用

 

上面這幾個步驟,就是一個:

 

材料(輸入)→ 依照食譜烹煮(演算法)→ 成品(輸出)

 

的過程。

 

演算法通常都應用在什麼地方?

 

演算法通常十分明確,且能用於專屬、特定的領域之中,像是計算、資料處理、自動推理 ...... 等。

 

演算法可以用有限的時間與空間來表示,通常演算法也會被用來解決特定的問題

 

例如:今天某位巨星要開一場演唱會,大家要到購票系統搶票,那麼「演算法」就可以充分幫助我們計算 — 到底是誰先來、誰後到?

 

除此之外,計算的過程速度也要夠快(時間有限),否則買票的人就會等非常久,計算所使用到的系統資源也要夠少(空間有限),否則售票系統就會塞住卡死。

 

這個演算法通常就是一段程式,在搶票的這個時空環境下(專屬領域),對歌迷的搶票行為(資料處理),做出最佳化判斷,讓大家能合理順利的買到門票(解決特定問題)。

 

演算法的時間複雜度、空間複雜度是什麼?

 

演算法可用「有限的時間與空間」表示,那到底什麼是「有限的時間與空間」呢?這兩個又要怎麼衡量呢?

 

演算法在衡量時間與空間的時候,習慣用「時間複雜度」、「空間複雜度」來命名,藉此用來判斷程式或演算法的效率到底好不好。

 

演算法的時間複雜度

 

「時間複雜度」簡單來說,就是電腦跑這個演算法所需花費的時間

 

用訂購搶票的案例來說,時間複雜度就是在多少的時間內,算出搶票的先後順序,能在越短內時間演算出結果越好。

 

再用前面煮飯的例子來說,煮飯五個步驟要多少時間完成?有沒有什麼動作能夠優化?哪些步驟是可以精簡的?如果使用壓力鍋替代電鍋煮飯,是不是就能縮短不少時間?

 

這些就是「時間複雜度」所要探討的問題。

 

演算法的空間複雜度

 

至於空間複雜度的意涵,可以理解成要完成這個演算法,要耗費多少系統運算資源(記憶體)

 

例如搶票系統,我們必須使用十台機器,才能應付一千人的搶票流量,但從省錢的角度來看,機器數量可能是越少越好,畢竟大家都希望能用最省的方案完成目標

 

煮飯的案例也一樣,如果今天要煮 10 人份的午餐,跟 100 人份的午餐,是不是用一台 10 人份的電鍋煮,會比用 5 人份的電鍋 2 台還要節省時間呢?

 

而時間複雜度與空間複雜度,兩者可以互相截長補短,假設今天要煮 100 人份的飯,我可以用 10 台 10 人份電鍋煮,一次搞定,也可以花兩倍的時間用 5 台電鍋去煮,省下多買 5 台電鍋所佔用的空間跟經費。

 

如果想要節省電鍋成本來煮完一百人份的飯,整體的時間就會拉長。

如何學習演算法?

 

演算法其實在一般正規大學的資訊工程學系中,與其他兩門課並列為核心,分別為

 

  1. 作業系統
  2. 計算機組織

 

而演算法其實與資料結構通常是一起學的,課程名稱常為「資料結構與演算法」。

 

這三門課奠定了未來在寫程式時的基礎,可以說非常硬底子,讓你從底層了解,如何寫出一個有效率、又好維護的程式,這會相對比一開始埋頭鑽研一個程式語言來的更直接、也更深入。

 

一個有效率又好維護的程式到底是什麼概念呢?

 

就像今天你掌握了一個燒菜技巧,可以比平常少花 3 分鐘做好,放在日常生活或許沒什麼,但如果放在百人甚至千人的流水席上,所節省的可是 300 分鐘、甚至 3,000 分鐘的時間資源。

 

並且這個燒菜技巧在廚師圈內,一看就能懂,任何一個受過訓練的廚師看了都能依需求修改。

 

如果有興趣想自學演算法,坊間有許多書籍、線上教學可以參考,如果時間充裕,不妨選擇一所大學旁聽看看。

 

學習演算法可說十分燒腦與考驗悟性的事情,就算是本科系為資工系的學生,也不見得每個人都能學得下去與學得好。

 

以完全沒有基礎知識的情況下,可先從 edx 中哈佛大學的 CS50 免費課程開始入手,內容涵蓋相當廣泛。

 

如果對於程式語法有一定熟稔度後,還可以挑戰 LeetCode 上面的各式演算法題目。

 

LeetCode 是一個軟體工程師之間常提及的刷題網站,簡單的說就是想要進入一流企業,面試會被問到的一些問題。

 

LeetCode 題目可以想成和「腦筋急轉彎」一樣,請你使用程式的表達方式來提出解法。

 

除了 LeetCode 以外,也有其他像 CodeWar 或 HackerRank 這類的網站,不過 LeetCode 比較偏向問題解決為主,會比較推薦。

 

演算法說穿了,就是鍛鍊用程式解決問題的技巧,像是 openhome.cc 專門介紹常見的演算法,若對於程式覺得抽象,也可以用 visualgo 這個視覺輔助學習的網站。

 

學習演算法,可以說是一條與自己不斷戰鬥、腦力激盪的旅程,但只要持之以恆,面對的難題往往都可以一一克服。

演算法在現實生活中的應用有哪些?

Youtube 影片推薦演算法

在 Youtube 中最常見的演算法莫過於影片了,它會自動分析使用者過去所看的影片、停留時間、按讚、留言、IP 位址、使用裝置、瀏覽器類型 … ... 等資訊,推算出該使用者大概喜歡的影片類型,並推薦給使用者。

 

此外,如果有註冊帳號,也會額外取得相關個人資訊,如年齡、性別、居住地 ...... 等。

 

不過就算沒有填寫,或者在沒登入 YouTube 的情況下,YouTube 也可以從觀看者的行為中用演算法逆推,計算出這樣觀看的行為屬於哪一類的族群,再根據這類族群喜好觀看內容,進而推薦最相關影片,讓你很容易從眾多的影片當中不段看到喜歡的內容而一看再看、難以自拔。

Facebook 好友推薦演算法

同樣的,臉書的好友推薦演算法,也是透過該帳號擁有者,與其他使用者帳號彼此使否有所關聯,如共同朋友、互相按讚、照片識別、留言互動 …... 等資料,推薦好友給該帳號擁有者

 

不過隨著隱私權日益抬頭、避免假帳號氾濫問題,現在一般人在加入臉書後,若是過快加入太多好友,反而會被視為廣告行為,留言貼文也是依樣。

 

這些自動判定也都是拜演算法所賜,它能幫助系統推導出一般正常使用者的行為、與異常使用者的行為差異,藉此增進正常使用者的使用體驗。

Google 搜尋結果演算法

 

Google 搜尋演算法是為了增進使用者的搜尋體驗而不斷改進的一套系統。

 

一般而言,Google 最基本的演算法,就是分析我們所輸入所要搜尋的關鍵字詞,並提供錯字判別的功能,如打錯字、注音忘了切換而輸入的英文亂碼,都可以讓搜尋者找到想要的資訊。

就算打錯字,搜尋引擎的演算法仍然可以幫助我們找到正確資訊

Google 搜尋引擎演算法 —— SEO 相關歷年重大更新整理

網頁排名 “PageRank” – Google 搜尋引擎與 SEO 核心演算法 (1997)

PageRank 是根據 Google 共同創辦人之一 ── Larry Page 命名的。

 

PageRank 的靈感來源是參考學術界以「論文被引用次數」,作為評判一篇論文好壞、重要性的參考依據之一。

 

它使用到的概念是:一篇重要性高的論文,通常被其他人引用的次數也較高。

 

用同樣邏輯去思考:

 

如果很多網頁都同時引向另一個網頁,那是不是可以合理推論:這是一個相對更優質、更值得排名的網頁呢?

 

PageRank 就是在此概念下,由 Google 創辦人設計出來。

 

PageRank 評斷的依據主要在於「連結」:特別是指「由別人的網站連到自己網站」的「反向連結 (Backlinks)」。

 

PageRank 會根據反向連結的數量,以及連結來源的「網站權重」高低,來賦予每個網頁不同的「PR 分數」。

 

網頁 PR 分數越高,在 Google 上的排名就會越前面

 

這個分數也可以經由連結傳遞,進而提升其他網站的 PR 值,而且因為評分同時會考量到「反向連結數量」和「連結來源的網站分數」,所以透過不同網站連出去的反向連結,產生的影響力也不同。

 

簡單的傳遞原理如以下圖解:

PageRank 會根據網頁上的連結總數量平均向外分配

A 網頁本身有 4 分,當它連結到 C、D 網頁,則 C、D 網頁各可以從 A 平均分配到 2 分 (4 ÷ 2 = 2)

 

B 網頁本身有 2 分,當它連結到 C、E、F、G 網頁,此四個網頁分別可以分配到 0.5 分 (2 ÷ 4 = 0.5)

 

而 C 網頁因為同時得到來自 A、B 網頁的分數,總共得到 2.5 分 (2 + 0.5 = 2.5)

 

從以上圖解與說明,可以歸納出 PageRank 的兩項重點:

 

  1. PageRank 是根據反向連結計算,代表網頁的重要性(權重)
     
  2. PageRank 分數可以透過連結傳遞,而且理論上會被導出連結 (Outbound Links) 的數量平分

 

在 PageRank 使用不久後,Google 也直接推出了專門的網頁工具,讓所有使用者都可以在瀏覽器上直接看到每個頁面的「SEO 分數」。

 

PageRank 也因此成為一個公開指標,在 SEO 圈中備受討論。

 

然而,因為分數高的網站能透過「導連結」將 PageRank 分數傳遞給別的網頁、提升排名,開始有許多人利用這個特點,在分數高的網站留言插入自己的網站連結,為自己「賺取」反向連結;

 

也有人另闢商機,利用自己經營的高權重網站,販售對外連結來賺錢等。

 

在過去好大一段時間,PageRank 都是 SEO 熱門議題,也常常被當成評斷網站優劣的唯一指標。

 

又因為瀏覽器顯示了公開分數,比拼數字的誘因導致 PageRank 更容易被濫用。

 

最後,Google 決定移除了這項功能,PageRank 也不再公開了。

 

雖然 Google 官方不公佈 PageRank,但並不代表這個演算法被淘汰,它仍在背後擔負著演算法的重要使命。

 

在 PageRank 使用前期,曾經被指出有些瑕疵跟漏洞,比如反向連結太容易被濫用等問題,都有被官方持續修正和改善。

 

因此可以得知,PageRank 是個反覆被調整的演算法。

 

就算 PageRank 這項專利已經過期,官方也不再公佈 PageRank,它仍然是 Google 最核心的演算法依據之一。

 

也因此,反向連結一直都被視為 SEO 重要項目,官方甚至承認:反向連結是影響網站排名的前三大重要因素。

 

延伸閱讀:泛科學|誰能佔領尋結果第一名?從 PageRank 網頁排名演算法談起

咖啡因 "Caffeine" – 網頁收錄演算法 (2009)

咖啡因演算法不是直接影響 SEO 排名,而是對搜尋引擎收錄網頁方式的規則大翻新。

 

首先,我們必須了解:網頁要先被 Google 的爬文蜘蛛找到 (Crawling),並收錄 (Indexing) 到 Google 的資料庫,才能排上 Google 頁面上、被使用者搜尋 (Ranking) 。

 

「收錄」跟「排名」其實是關聯性不大的兩件事,但網頁必須先被收錄,才有排名的可能

 

舊有的爬文、收錄系統已跟不上資訊爆炸的時代,Google 每天要爬取數十億到上兆個頁面,收錄到資料庫裡處理分類和排名等,所以需要花上不少時間才能讓搜尋者查到最新的內容。

 

導入咖啡因演算法後,可以縮短爬文到收錄所需的時間,大幅提升使用者立即搜尋到即時資訊的可能性。

 

例如地震發生過後,馬上去 Google 相關新聞,就能快速查到地震發生地、規模、即時報導等資訊。

 

對於資訊量越來越大,且更新速度越來越快的網路時代而言,咖啡因演算法是為了因應使用者需求而做出的重大變革,能讓使用者在更短的時間內取得想要的資訊。

 

本站專欄作家 Jemmy 曾讓新發佈的文章在 48 小時內登上搜尋結果第一名,或許原因就是咖啡因演算法促成,讓新的文章能在發佈後,快速而短暫被使用者看到,之後再慢慢決定文章該有的排名位置。

 

延伸閱讀:[實證研究] 關鍵字排第一要多久?

熊貓 "Panda" – 內容農場演算法 (2011)

 

還記得「內容農場」嗎?

 

在 2010 年代,Google 的搜尋結果基本上是被劣質的「農場文」淹沒,包含瘋狂硬塞關鍵字的文章、隨便湊合的內容等,佔據搜尋引擎頁面,內容卻和搜尋的字詞毫無相關、讓人一點進去就馬上想跳出的文章,現在幾乎已經快找不到。

 

當時很多網站主利用搜尋引擎的規則漏洞,使用程式自動複製、或者雇用 SEO 寫手批量產生富含關鍵字,但卻內容貧乏、無法帶給讀者價值的廢文 (thin content),目的是要在短時間內不擇手段獲得流量。

 

熊貓演算法的出現,就是為了對付這些品質不佳的文章,而將網頁的「內容品質」視為影響搜尋結果排名的重要因素。

 

而且所謂「內容品質優劣」是藉由使用者與網頁的互動數據、以及人工審核等複雜機制綜合判斷的,單靠關鍵字使用頻率、網址優化、標題優化等簡單的 SEO 手法,是不足以被演算法認定為高品質內容的。

 

所以光是迎合 Google 的演算法並不夠,真正必須滿足的對象是使用搜尋引擎的使用者。

 

使用者喜不喜歡網頁內容,對演算法來說變得非常重要。

 

而為了瞭解使用者的喜好,Google 可能會盡可能的分析使用者數據,藉由讀者和內容互動的狀況來評斷網頁品質好壞。

 

如此一來,劣質內容農場文就逐漸被搜尋引擎淘汰,而真正留下來,能在搜尋結果有不錯排名的文章,往往都更能符合的使用者需求。

 

簡單來說,熊貓演算法出現以後,如果能討得使用者的喜愛,大多也能獲得演算法的認同。

 

具體改善重點簡單列舉幾個如下:

 

  • 內容設計呈現與使用者體驗:視覺舒適度很重要,像是廣告多寡文字、排版方式等,都會影響使用者的閱讀意願
     
  • 網頁整體品質:注重內容的品質、實用性、相關性、權威性及可信程度等。Google 有所謂「搜尋品質評分員」,來針對搜尋得到結果給予意見回饋,其中在他們的評分指南中也有不斷提到 E-A-T 的重要性,也就是專業性 (Expertise)、權威性 (Authoritativeness) 和可信程度 (Trustworthiness)
     
  • 內容品質:提供具原創性、獨特性、有用、文法正確、無錯漏字等的內容已經是最基本的要求,因為在資訊越來越豐富的時代,「好」內容已經不夠,要「極好」的內容才會脫穎而出

 

總結來說,熊貓演算法在 SEO 界被視為難對付的敵人,一旦被演算法淘汰掉的網頁很難再回到戰場。

 

若不從根本改善以上重點項目、提高內容品質,而只依靠鑽漏洞「洗文章」技巧的話,基本上很難在熊貓演算法下倖存。

 

延伸閱讀:泛科學|內容農場給我下去!搜尋引擎的內容守門員:Panda 熊貓演算法

蜂鳥 "Hummingbird" – 搜尋意圖演算法 (2013)

 

蜂鳥演算法不像「熊貓」,只針對舊的演算法進行調整,2013 年公佈的 Hummingbird,可以說幾乎是個全新的演算法。

 

如果把演算法比喻成汽車引擎,熊貓 Panda 像是更換引擎內的部分零件,而後者卻是把整個引擎都換了。

 

根據官方說法,此演算法希望打造「精準且快」的搜尋體驗,就像蜂鳥翅膀高速振動和它靈活的行動力一樣。

 

峰鳥的重點在於提高讀者「輸入的字詞 (Search Queries)」和「搜尋結果 (Search Resultes)」之間的吻合程度,讓使用者能在短時間內獲得想要的答案。

 

這時候,如何判斷使用者的「搜尋意圖 (Search Intent)」就變得極度重要了——也就是說:

 

演算法必須要了解搜尋者到底要有什麼「意圖」:

我們可以很輕易的透過搜尋畫面來看出:大家搜尋的時候想找什麼。

 

在 Google 上搜尋「洋裝」,可以看到結果頁面接近 100% 都是可以「買洋裝」的購物網站,不會有洋裝的名詞解釋、歷史介紹、維基百科等。

 

這表示 Google 了解搜尋「洋裝」的使用者就是想購物,而不是想了解洋裝的知識、定義等等,所以在第一頁當中只給出可供消費的搜尋結果。

 

至於 Google 是如何判斷使用者的搜尋意圖?

 

「蜂鳥演算法」強化了對使用者搜尋字詞的理解。

 

換句話說,就是試圖去辨別字詞的「語意」,而不單單只是從搜尋字詞裡面抓關鍵字。

 

Google 語音搜尋就是一個很好的例子,可以把使用語音搜尋想像成和 Google 對話。

如果使用語音搜尋詢問「川普是誰」,Google 會提供川普的基本簡介。

 

緊接著,再用語音搜尋詢問「他多高」,這時候 Google 會自動判斷「他」指的是川普,不是其他人,而會提供川普的身高。

 

這就像是人與人之間的對話,不需要特別指名道姓,彼此都能透過談話內容上下文知道當下指的對象,而 Google 語音搜尋就是希望透過搜尋紀錄、位置資訊等參考資訊,讓搜尋引擎更能理解口語化的搜尋用語,以提供更貼近使用者想知道的答案。

 

因此,就像是語音搜尋試圖去了解使用者的意圖,蜂鳥演算法加強了「所有」搜尋字詞的分析,而不只是幾個關鍵字。

 

比如搜尋「附近有什麼好吃的餐廳」,在過去,Google 可能只會針對關鍵字「美食」、「餐廳」來提供資訊,但加強了所有字詞分析後,在有授權 Google 存取位置資訊的條件下,Google 提供的搜尋結果會針對使用者的定位,提供符合關鍵字「附近」、「美食」、「餐廳」的搜尋結果。

 

嚴格來說,蜂鳥演算法對於搜尋結果的排名方式沒有直接影響,優質內容一樣是排名的重點,只是在搜尋方面,Google 能更精準判斷使用者的搜尋意圖

 

延伸閱讀:泛科學|蜂鳥演算法如何提升人類的搜尋體驗

人工智能 "RankBrain" – AI 智慧演算法 (2015)

RankBrain 演算法運用了人工智慧技術 (Artificial Intelligence, AI),讓演算法像人一樣有自主學習能力,不必完全依賴人類的指令。

 

RankBrain 的主要用途,是更精準地解讀使用者的搜尋字詞。

 

尤其是當使用者搜尋的字詞較模糊、不明確、口語化或沒有包含關鍵字本身的時候。

 

比如搜尋「歐巴馬老婆的身高」,Google 能自動解讀成使用者想知道的是「蜜雪兒.歐巴馬 (Michelle Obama) 的身高」。

 

不需要鍵入關鍵字「蜜雪兒.歐巴馬」,也能得到想要的答案。

 

又或是許多字詞都有同義詞,而英文有名詞單複數的差別,Google 就必須有能力去判斷:這些都是指相同的意思。

 

所以,演算法不能只是停留在「字串」搜尋,提供包含「歐巴馬」、「老婆」、「身高」的搜尋結果,還必須著重在「語意」的搜尋,才能提供正確且有用的資訊。

 

關於語意搜尋上的發展,Google 在 2012 年推出知識圖譜(Knowledge Graph)。

 

它是一個資料庫,匯集了維基百科、線上常見問答等相關資料,而整理出摘要、綜合性資訊給使用者,讓使用者不需要點進其他網站,就能快速獲得想要的資訊。

 

它依賴的就是事先多方匯集相關資料。

雖然過去也有依賴人力去整理同義詞清單,或根據資料的相關性分類、整理成資料庫,但在 2013 年的統計報告指出,每天仍有 15% 的搜尋量是 Google 從來沒有見過的

 

這樣的量體來不及經由人工來逐項處理或分析。

 

人工處理明顯已無法負擔大量的搜尋需求,而 RankBrain 也就是在此需求下,因應而生。

 

RankBrain 號稱是影響排名的第三大因素,和連結、優質內容同為三大排名影響因素,可見還是有一定的重要性。

 

延伸閱讀:大數聚|Google 怎麼知道你在說什麼?看搜尋引擎 AI 如何學會「聽人話」!

醫療 "Medic" – 健康財產演算法 (2018)

「醫療演算法」—— 名稱來自於知名的 SEO 媒體人,同時也是 Search Engine Roundtable 的主編 Barry Schwartz

 

這個演算法在 2018 年 8 月初導入 Google 搜尋引擎,發佈時對整體搜尋產生了非常明顯的改變,尤其是針對醫療、健康相關主題的網站所受影響最深。

 

這些受到最大衝擊的領域又被稱為 "YMYL - Your Money Your Life"、也就是「與生命財產相關」的內容。

它的影響範圍大到甚至是販售醫療產品的電商網站,都能看出自然流量的變化。

 

根據第三方分析軟體 Ahrefs 的 SEO 搜尋走勢分析,許多和醫療相關的網站很明顯在 2018 年 8 月左右,都有一波流量下跌的趨勢。

美的好朋友

每日健康

大受演算法衝擊的醫療相關業餘網站

以上這些醫療保健相關主題的網站,原本由業餘的寫手、部落客來經營都能排上不錯的排名,但在 Medic 演算法釋出之後,這些相關網站受到明顯的打擊。

 

大概只有學術論文、政府部門、醫院學校等頂級權威的網站才不受到太大影響。

 

SEO 專家 Marie Haynes 也指出:

 

受影響的網站大多與 YMYL  (Your Money or Your Life) 有關,可以推測 Google 不希望使用者在使用自家搜尋功能的時候,會查到對自身財產、生命安全有不利影響的內容。

 

網站一旦涉及這些主題,只有 Google 演算法認定為適合使用者的內容才會被排在較前面,其他品質不符合的內容就被嚴重降級

 

Marie Haynes 更進一步認為:

 

Google 的判斷依據,應該和官方給予的「搜尋品質評分員」評分指南中提到的 E-A-T 有很大關係 ──

 

專業性 (Expertise)、權威性 (Authoritativeness) 和可信程度 (Trustworthiness)。

 

然而,這些指標都不是明確、容易被量化的概念。

 

Marie Haynes 也僅能分析流量大幅變動的健康領域網站、觀察它們的差異。

 

例如:網站內容撰寫者是否為該領域專家、是否有個人專業背景簡介等,歸納出一些可能的影響因素。

 

不過,也並非所有醫療保健相關網站都受到負面影響,也並非只有這些相關網站受到醫生演算法的影響。

 

SEO 權威網站 Moz 對於醫生演算法的影響範圍,以及 E-A-T 是否是影響的主要原因,都抱持較保留的態度。

 

延伸閱讀:大數聚|Google 如何利用 AI 演算法替你把關醫療與健康風險?

企鵝 "Penguin" – 作弊連結演算法 (2012)

企鵝演算法的目的,主要不是積極提升優質內容的排名,而是針對黑帽 SEO、尤其是黑帽連結的懲罰。

 

黑帽 SEO 是指使用作弊手段去「欺騙」搜尋引擎,讓網頁的排名被誤判、高估,但其實網頁內容對使用者而言,並沒有相對應的價值。

 

 

常見的黑帽 SEO 手法有:

 

  • 不自然地硬塞關鍵字 (Keyword Stuffing)
  • 不當操縱連結,試圖影響搜尋引擎排名 (Link Schemes)
  • 大量購買、交換可以幫助排名的連結 (Link Exchange)
  • ... ...

 

而「黑帽連結、所指的,就是針對連結所進行的作弊行為。

 

PageRank 演算法的段落,我們已有提到連結對 SEO 排名的重要性

 

PageRank 在 1997 年由 Google 創辦人提出,是用「連結」的數量和權重來決定網頁排名。

 

連結就像是有人幫忙背書一樣,越多人幫忙背書,越顯得網頁有其重要性,而且如果是來自專家、名人等權威的背書,又更具說服力和可信度。

 

「連結」也正是 Google 開始爬取新網頁、為網頁決定排名等時,參考的重要決定因素,是 PageRank 演算法最核心的概念。

 

所以有些黑帽 SEO 操作者就會抓住這個重點,利用不當的連結建立手段獲取大量連結,進而讓搜尋引擎判斷錯誤,即使內容劣質,也可能因為擁有許多不自然連結,而被優先推薦給搜尋者。

 

但 Google 怎麼辨別哪些是黑帽連結呢?

 

在 Google 搜尋品質指南中有提到,搜尋引擎會針對以下的「連結配置」做處罰:

 

  • 付費連結 (Paid Links):以任何形式買賣可以幫助排名的反向連結,例如常見的業配文章
     
  • 交換連結 (Link Exchange):針對以操作排名為目的的大量交換連結:「你連我、我連你」
     
  • 全網連結 (Site-wide Links):常見於網頁設計公司,比如在客戶的網站頁面偷藏連結,指向由「某網頁公司設計」

    這個行為看似正常且合理,但這樣的連結傳遞的權重加分,對搜尋引擎來說卻是與網頁品質不直接相關的加分

     
  • 操縱連結 (Link Schemes):用任何不自然的手段人為操作連結。比如不管前後文,每篇文章都要求提到自家網站、要求使用指定的錨點文字 (Anchor Text)

    又例如:50篇文章都要求加上「本篇文章由 JKL 行銷專家 Jemmy 撰寫

 

以上連結若是為了排名而刻意操作,就屬於不當連結;

 

若是自然使用的狀況下,Google 則要求在連結的語法加上 “nofollow” 屬性:也就是告訴 Google 這個連結與排名無關、不傳遞任何排名訊號。

 

除了企鵝演算法針對黑帽連結做懲處以外,Google 也有「專人介入處理 (Manual Actions)」來對付這些可疑連結。

 

若被判定試圖人為操縱排名,網站就可能會受到懲處,像是頁面排名下降、甚至從搜尋結果中被移除等。

 

演算法的出現使辨識連結的效率更加提升,有時候不用等到排名上升、或者專人介入處理,就可能即時性的先被演算法篩選掉。

 

也就是說,當這些操縱排名的連結在一開始被製造出來之後,就隨即被演算法降下權重。

 

企鵝演算法在 2012 年首次被導入,一直到 2016 年官方宣布成為核心演算法之一,再再顯示官方對違規制裁的重視程度,其重要性和打擊程度不亞於熊貓演算法。

 

雖然黑帽 SEO 可能帶來短時間的網頁排名提升和流量增加,或許是有效的做法,但為了網站長久的穩定考量,仍不建議輕易嘗試。

 

延伸閱讀:泛科學|操作黑帽 SEO,小心被 Penguin 企鵝演算法懲罰!

伯特 "BERT" – 自然語意演算法 (2019)

 

使用者在使用搜尋引擎時,已經漸漸習慣使用搜尋用語,而會盡量配合搜尋引擎輸入關鍵字。比如一般人在想查詢「代購的英文」時,多半會輸入「代購 英文」,而非口語上的「代購的英文是什麼」。

 

伯特演算法號稱可以透過自然語言處理 (Natural Language Processing) 來優化搜尋字詞,也就是拉近「人們日常慣用語」與「搜尋引擎理解的語言」間的差距。

 

使用者不需要去設想如何讓搜尋引擎理解搜尋用詞,可以直接口語化搜尋,甚至在使用者本身不曉得正確的搜尋用詞時,也可能找到想要的資訊。

 

Google 官方認為伯特演算法是過去五年來對搜尋字詞理解的大躍進,號稱可以靠同個句子中的前後字詞,來了解整個句子的涵義,而且不只有在最廣泛被使用的英文,也推及到其他語言。

 

Google 助理現場示範和人類對話預約剪髮影片看來,Google 似乎的確有能力理解人類的語言,但實際上用口語用詞搜尋時,即使語意相同,搜尋結果仍然因輸入字詞不同而有差異。

 

自然語言處理研究學者 Allyson Ettinger 也指出伯特演算法在理解上的局限,像是不善於理解否定敘述等,可見 Google 在語言理解上仍有很大的進步空間。

 

另外,伯特演算法的目的是提升搜尋引擎的品質,無法透過任何方法針對該演算法優化,因此,有心經營網站者該做的仍是打造優質內容,並創立反向連結,提升網站權威。

 

延伸閱讀:泛科學|BERT 自然語意演算法如何提升關鍵字理解能力?

 

"Helpful Content"——實用內容演算法更新 (2022)

 

為了更強調「針對讀者」的實用性、而不是只為了追求搜尋排名來產製內容,Google 在 2022 年 8 月釋出了「實用內容演算法 (Helpful Content Update)」更新。

 

這項更新專注在「讀者優先」,Google 希望使用者透過搜尋引擎找到網頁內容後,會覺得讀到的東西對他們有實際上的幫助,並且有良好的經驗

 

哪些是有實際幫助的內容?Google 在這次的演算法更新中列出以下具體的事項,如果對以下的問題回答「是」的話,那就表示這些內容多半會是理想的:

 

  • 既有的讀者們或目標客群如果是直接進入網站,是不是也會認為現有內容對他們有幫助?
     
  • 你的內容是否有顯示第一手專家級的深度知識?(例如藉由真正使用過產品或服務、實際造訪某個地點,而取得的專業)
     
  • 你的網站是否有明確的方向或核心主題?
     
  • 當一個人讀完你的內容之後,是否會覺得針對這主題已經學到夠多的知識,足以幫助讀者達成目標?
     
  • 當一個人讀完你的內容之後,是否會覺得這次經驗令人滿意?
     
  • 你有把 Google 的核心演算法更新產品評論的指南放在心上嗎?

 

Google 表示:避免為了搜尋引擎而產出內容。

 

「讀者優先」的 SEO,目的是為了在搜尋引擎提供有幫助的內容。純粹為了搜尋引擎優化而所產出的東西,通常都和讀者的不良搜尋體驗有滿大的關係。

 

如果針對以下的問題會得到肯定的答案,那表示這些內容可能是有問題的:

 

  • 這內容是不是為了從搜尋引擎吸流量,而不是為了真實讀者而產出?
     
  • 你是不是寫了很多不同主題的內容,然後希望其中的幾項能從搜尋引擎當中脫穎而出?
     
  • 你是否使用大量自動化的方式產出各種主題的內容?
     
  • 你是否都只是統整別人講過的東西,而沒有提供額外的價值?
     
  • 你是否只為了當下的流行趨勢而撰寫某些東西,而不是為了你的讀者們而寫?
     
  • 你的內容是否會讓讀者覺得要再重新搜尋,才能從其他來源得到更好的資訊?
     
  • 你是否聽說 Google 會設定理想的字數(Google 沒有這個機制)而刻意滿足特定的內容文字量?
     
  • 你是不是為了要獲得搜尋流量,在沒有真實經驗的情況下就涉入某個主題?
     
  • 你的內容是不是有表示要回答問題,最後卻沒有提供答案?

 

「實用內容演算法」的更新還有以下相關注意事項:

 

整個過程大約會花兩個禮拜,只針對「全球的英文關鍵字詞」,但之後預計就會擴展到其他語系。

 

這個演算法會影響全站的排名表現如果演算法判定網站內有很大比例的「不實用」內容,那麼整個網站都會受到影響,包含網站內其他高品質的內容也會牽連。

 

刪掉不實用的內容可以幫助網站在這次的演算法更新中得到理想的成效。

 

實用內容演算法是會一直持續運作下去的,演算法的設計目標是要確認某個網站有「長期持續產出」有幫助的實用內容,才會解除標記,所以如果被演算法影響,實際改善之後可能要等好幾個月的期間才能恢復(要有實際的改善動作)。

 

實用內容演算法是按權重來判斷的,所以不是非黑即白。網站裡面含有越高比例的無用內容,可能會遭遇到更強烈的衝擊。

 

Google 建議網站最好移除掉沒有用的內容,並且多加參考他們一直以來重複強調的搜尋最佳化指南

 

以上的問題,是 JKL SEO 根據國際知名專家 Aleyda Solis 的整理編譯彙整而來,透過這些問答,我們可以更有邏輯的審視自己的內容策略是否有符合 Google SEO 的精神。

 

完整的中文版雲端報告可以透過以下的連結看到(請自行複製一份,避免使用要求權限的功能):Google 的【實用內容演算法】更新,重要問答