Google Bert 演算法是什麼?會影響 SEO 搜尋結果排名嗎?教學

by 貓熊先生
Google Bert 演算法
Google Bert 演算法

Google Bert 演算法是繼「Google Hummingbird 蜂鳥演算法」與「Rankbrain」之後,又一個跟語義有關的演算法。BERT 的英文全名叫做「Bidirectional Encoder Representations from Transformers」,中文可以翻譯成「基於變換器的雙向編碼器表示技術」,看似很複雜與又臭又長的名稱,但它卻是從事 SEO 工作的人,也必須知道的 SEO 演算法之一。

Google Bert 演算法是用於自然語言處理(NLP)的預訓練技術,,而且是由 Google 提出。對於 Google 演算法有研究的人,應該都會感到 Google 對於語義特別重視,例如蜂鳥演算法跟 Rankbrain 都是在處理語義,Google 在語音搜尋方面的表現,也比蘋果的 Siri 還要優秀,有興趣的人可以參考「Rankbrain」一文。

如果你還不知道 Google Bert 演算法是什麼,以及它到底會不會影響到 SEO 的搜尋結果排名,本篇文章會做一個完整的教學。

Google Bert 演算法是什麼?

BERT 英文全名叫做「Bidirectional Encoder Representations from Transformers」,中文叫做「基於變換器的雙向編碼器表示技術」,這是由 Google 所推出的演算法,而且已經被應用在 Google 搜尋引擎的查詢上,從事 SEO 工作的人對於 Google Bert 演算法也必須要有所了解。

根據維基百科對於「Google Bert 演算法」的資料顯示。

BERT起源於預訓練的上下文表示學習,包括半監督序列學習(Semi-supervised Sequence Learning),生成預訓練(Generative Pre-Training),ELMo和ULMFit。與之前的模型不同,BERT是一種深度雙向的、無監督的語言表示,且僅使用純文字語料庫進行預訓練的模型。上下文無關模型(如word2vec或GloVe)為詞彙表中的每個單詞生成一個詞向量表示,因此容易出現單詞的歧義問題。

BERT考慮到單詞出現時的上下文。例如,詞「水分」的word2vec詞向量在「植物需要吸收水分」和「財務報表裡有水分」是相同的,但BERT根據上下文的不同提供不同的詞向量,詞向量與句子表達的句意有關。

從上面的資料你應該已經發現,Google Bert 演算法不會只考慮到關鍵字(參考:關鍵字密度),而且還會考慮到關鍵字所處位置的上下文。

換句話說,單單提高關鍵字在網頁中出現的頻率跟次數,對於提升排名的影響已經越來越小,Google Bert 演算法的出現,讓 Google 可以更解構一個詞到底是跟什麼有關(考慮上下文)。

實際上,在 Google Bert 推出之前,Google 工程師就已經發表跟 Google Bert 有關的演算法了,這個論文還造成不小的轟動,有興趣的人可以參考:Google Bert

MOZ 在一篇「Google Bert 演算法」文章中也提到,BERT 是一種預訓練的無監督自然語言處理模型。 經過微調,BERT 可以勝過 11 個最常見的 NLP 任務,本質上成為自然語言處理和理解的火箭助推器。

BERT 是深度雙向的,這意思是它會查看實體前後的單詞以及在 Wikipedia 上預先訓練的上下文,以提供對語言的更豐富的理解。

Google Bert 演算法何時更新的?

Google Bert 演算法是在2019年十月先從美國開始推出的,然後慢慢擴及全世界,再擴及所有語言。

2019年10月25日,Google 宣布他們已經開始在美國國內的英語搜尋查詢中應用 Google Bert 演算法。

2019年12月9日,據報導,Google搜尋已經在70多種語言的搜尋採用了 Google Bert 演算法。

2020年10月,幾乎每一個基於英語的查詢都由BERT處理。

Google Bert 演算法對長尾關鍵字的影響

如何真的要說面對 Google Bert 演算法,我們可以做哪些事,最重要的一件事,或許就是對長尾關鍵字進行優化了。

上面有提到,Google Bert 演算法主要是透過上下文增加對於語義的理解,換句話說,透過 Google Bert 演算法,Google 可能會發現很多「長尾關鍵字」其實意思都一樣。

如果你可以知道使用者在某個「搜尋意圖」之下,都會使用什麼長尾關鍵字,你就可以透過那些長尾關鍵字進行優化。

在實務的操作上,你可以前往「Google search console」,然後點擊你的其中一篇網頁,你會看到使用者進入該篇文章的所有搜尋詞,其中就包含很多「長尾關鍵字」。

下面這篇文章是貓熊先生「noindex」這篇文章所包含的各種長尾關鍵字。

Google Bert 演算法對「長尾關鍵字」的影響
Google Bert 演算法對「長尾關鍵字」的影響

知道了長尾關鍵字之後,你就可以再對文章進行優化,將一些你原本內容缺少對「長尾關鍵字」的說明或解釋,重新補進去你的文章裡面。這或許就是針對 Google Bert 演算法,最重要的優化工作項目了。

針對 Google Bert 演算法,還可以做什麼?

實際上,對於 Google Bert 演算法,我們可以做的事其實很有限。因為「Google Bert 演算法」只是讓 Google 更加了解一個單詞到底是跟什麼有關,也就是 Google Bert 會針對上下文來對網頁進行更好的理解,同時 Google Bert 演算法也讓 Google 了解到,很多長尾關鍵字,其實搜尋意圖都一樣。

面對 Google Bert 演算法,主要可以做的,還是繼續打造優質內容,寫出搜尋意圖涵蓋範圍更全面的優質內容。

Ahrefs 有一篇跟「Google Bert 」有關的文章,其中有列出不少面對 Google Bert 演算法,我們可以採取的優化項目工作。

1.優化長尾關鍵字

如上面所提到的,當文章發布之後,你可以進入到 Google search console,將所有長尾關鍵字收集起來,然後將文章缺少的內容重新補齊。

2.研究搜尋意圖

雖然面對Google Bert 演算法,我們可以優化的項目主要是針對長尾關鍵字,但這並不意味著你應該無限擴大你的內容,你的文章應該還是要跟你的「主攻關鍵字」高度相關,無限制擴張你的內容,可能會導致文章的主題跟「主攻關鍵字」之間的相關性跑掉。

3.使用語義標籤

自從 HTML5 推出之後,使用語義標籤就越來越重要,例如文章主體應該使用 Article 標籤,導航列應該使用 nav 標籤,側欄應該使用 Aside 標籤,頁腳應該使用 Footer 標籤…等等。

4.使用結構化資料

結構化資料標記可以讓 Google 更好理解你的頁面內容,如何使用結構化資料可以參考下面文章。

5.使用錨點文字增加相關性

無論是內部連結還是反向連結,錨文字都可以協助 Google 判斷你的頁面到底是跟什麼主題有關,這可以替你增強頁面相關性。

上面就是 Ahrefs 在該篇文章給出的建議。

Google Bert 演算法 常見問題

Google Bert 演算法是什麼?

BERT 英文全名叫做「Bidirectional Encoder Representations from Transformers」,中文叫做「基於變換器的雙向編碼器表示技術」,這是由 Google 所推出的演算法,主要原理是根據搜尋字詞的上下文去理解內容。

針對 Google Bert 演算法,我們可以做什麼?

面對 Google Bert 演算法,最重要的優化項目工作為針對「長尾關鍵字」進行優化,其它還可以做的優化項目有:研究搜尋意圖、增加結構話資料、透過錨點文字增加頁面相關性,以及使用語義標籤。

Google Bert 演算法 觀念整理

Google Bert 演算法是繼蜂鳥演算法跟 Rankbrain 演算法之後,又一個重要的跟語義有關的演算法,這也說明 Google 真的非常重視語義。

面對 Google Bert 演算法最重要的一點,就是在文章發佈之後,你可以從 Google search console 去收集長尾關鍵字,然後重新對內容進行優化。

相關文章