Image 001

ChatGPT (Open AI) 在 2022 年底爆紅以後,許多人開始問:「能透過 ChatGPT 寫食記嗎?」、「ChatGPT 能幫忙改善 SEO 嗎?」、「有了 ChatGPT 是不是不需要寫手了?」

想要利用 ChatGPT 來寫作的人或許可以參考 Roger Montti 的這篇指南。另外,雖然文中指出 AI 產出的文章有水印,但就現階段的資訊而言,似乎還不適用在中文內容上。

ChatGPT For Content and SEO?
Here are six things to know about ChatGPT before using it for SEO and content

ChatGPT 是一個人工智慧聊天機器人,可以指導並完成諸如撰寫論文之類的任務。在思考如何將其用於內容和 SEO 之前,需要了解一些可能遇到的狀況。

由於 ChatGPT 產出內容的品質令人震驚,因此也該探討將其應用於 SEO 領域的想法,接下來讓我們一起探索。

ChatGPT 是如何運作的?

簡而言之,ChatGPT 是一種稱為大型學習模型( Large Learning Model)的機器學習(Machine Learning)。

大型學習模型是一種根據大量數據進行訓練的人工智慧,以使其可以預測語句中的下一個單詞是什麼。它接受的訓練數據越多,能夠完成的任務種類就越多(比如讓他寫文章)。

有時大型語言模型會發展出意想不到的能力。史丹佛大學寫道:「訓練數據的增加使得 GPT-3 能夠將文本由英語翻譯成法語,即使它沒有經過專門的訓練來完成這項任務。」

像 GPT-3(和 ChatGPT 的基礎 GPT-3.5)這樣的大型語言模型並沒有被訓練來完成特定的任務。它們被訓練成具有廣泛知識以應用於其他領域的模式。

這類似於人類的學習方式。例如,如果一個人學習了木工基礎知識,他們就可以應用這些知識來製作一張桌子,即使這個人從未被指導過如何這麼做。

GPT-3 的工作原理類似於人腦,它包含了可應用於多項任務的一般知識。

史丹佛大學關於 GPT-3的文章解釋說:

「與解決特定問題的棋類引擎不同,人類『通常』是聰明的,可以學習處理任何事情,從寫詩到踢足球再到報稅。而與大多數當前的人工智慧系統相比,GPT-3 正在逐漸接近這種一般智能……」

ChatGPT 結合了另一種稱為 InstructGPT 的大型語言模型,該模型被訓練為可以接受人類指示及複雜問題並產出長式答案。

這種「遵循指示」的能力始得 ChatGPT 幾乎能夠按照指令建立任何主題的文章,並依據用戶所指定的方式進行,它可以在限定字數和限制特定主題的條件下完成文章的產出。

關於 ChatGPT 的六件事

ChatGPT 幾乎可以就任何主題撰寫論文,因為它接受過對公眾可用的各種文本的訓練。然而,在你決定將其使用在 SEO 項目之前,必須先了解以下關於 ChatGPT 的局限性。

首先最大的限制就是 ChatGPT 無法產出準確可靠的資訊。

因為該模型設計上在接收到主題資訊以後,只能預測句子在段落中,下一個詞應該出現什麼單字,而準確性則不是它所關心的。

所以如果你有興趣用它來產出高品質的內容,應該特別注意這點。

廣告內容

1. 編程設計使它避免產出特定類型的內容

ChatGPT 經過專門的編程設計,以保證它不會產出有關暴力圖片、露骨性行為和有害內容(例如有關如何製造爆破裝置的內容)等主題的內容。

2. 不了解當下的時事

另一個限制是 ChatGPT 並不清楚 2021 年之後建立的任何內容。

因此,如果您要產出的內容需要結合最新、最熱門的時事,那麼現在的 ChatGPT 可能幫不上忙。

3.它的觀點存在偏見

對於 ChatGPT 需要注意的一個重要限制是,它是被訓練成有用的、真誠且無害的。這些不僅僅是理想,而是內置於模型內的故意偏見。

這看似無害的編程使它避開了消極性的輸出內容,乍看之下是件好事,但它也巧妙地改變了產出的內容,讓它看起來會更為中立。

從某種意義上說,人們必須明確地主導並要求 ChatGPT 朝著你所期望的方向運作。

舉個例子:

我讓 ChatGPT 以 Raymond Carver 的風格寫一個故事,並以神秘作家 Raymond Chandler 的風格寫另一個故事。

這兩個故事的結局都非常樂觀,但與這兩位作家的風格卻完全不同。

為了獲得符合我期望的輸出,我不得不再為 ChatGPT 提供更為詳細的指導,以避免它產出樂觀的結局,也讓它符合 Raymond Carver 的故事發展路線。

因此你也應該注意到,ChatGPT 會因為本身的觀點限制而影響產出的內容。

4. ChatGPT 需要非常詳細的指示

ChatGPT 需要詳細的說明與指示才能輸出更高品質的內容,這些內容也更有可能具備高度原創性,或是採用特定觀點。

用戶給出的指令越多,產出內容就越複雜。這既是一種優勢,也是一種需要特別注意的局限性。

在內容請求中給予它的指令越少,產出內容就更有可能與其他人所得到的內容相同。

為了進行測試,我複製了幾個人在 Facebook 上發表的查詢和輸出內容。

當我向 ChatGPT 詢問完全相同的內容時,它生成了一篇遵循類似結構的原創文章,這些文章內容雖然不同,但它們具有相同的結構並涉及相似的子主題,不過在用詞方面是 100% 不同的。

ChatGPT 的設計目的是在預測文章中的下一個單詞時選擇完全隨機的內容,因此它不會抄襲自己是有道理的。

但是,相似的請求確實會產出相似的文章,這一事實凸顯了簡單地輸入「請給我這個」這種查詢內容的的局限性。

5. ChatGPT 產出的內容能被辨別出來嗎?

Google 和其他組織的研究人員多年來一直致力於檢測人工智慧生成內容的演算法。關於這個主題有很多研究論文,我會提到 2022 年 3 月的一篇使用 GPT-2 和 GPT-3 輸出的論文。

該研究論文的標題是,生成性變化器檢測中的神經統計特徵的對抗性穩健性(Adversarial Robustness of Neural-Statistical Features in Detection of Generative Transformers)。

研究人員測試著重在於利用何種分析可以檢測出旨在逃避偵測的人工智慧生成內容。他們測試了一些策略,例如使用 BERT 算法將單詞替換為同義詞,另一種算法是增加拼寫錯誤,以及其他策略。

他們發現,AI 生成的文本的一些統計特徵(例如 Gunning-Fog Index 和 Flesch Index 分數)可用於預測文本是否為計算機生成,即使該文本使用了旨在逃避檢測的演算法。

6.隱形浮水印

更有趣的是,OpenAI 的研究人員已經開發了加密浮水印,這將有助於檢測通過 ChatGPT 等 OpenAI 產品建立的內容。

在名為Scott Aaronson Talks AI Safety 的影片中可以看到研究人員指出,像 Robots.txt 成為道德爬蟲標準一樣,浮水印等道德人工智慧實踐也可以發展成為行業標準。

他說:「……在過去的 30 年裡,我們已經看到大型網路公司可以就某些最低標準達成一致,無論是因為害怕被起訴、或是希望被視為負責任的參與者,又或者是其他原因。最的例子就是 robots.txt:如果你希望你的網站不被搜索引擎收錄,你可以指定該文件,而主要的搜尋引擎也會尊重它。以類似的方式,你可以想像加上浮水印這樣的東西——如果我們能夠證明它有效,並且成本低廉且不會損害輸出品質,也不需要耗用太多運算資源等等——那它將會成為一個行業標準,想要被當成負責任的人都會加入的。」

該研究人員基於密碼學開發浮水印,任何擁有密鑰的人都可以測試一份文件,看看它是否有數位浮水印,以表明它是由人工智慧生成的。例如,產出的代碼是以標點符號的形式或是特定詞語選擇的方式出現。

他解釋了浮水印的運作原理及其重要性:「到目前為止,我的主要項目是為 GPT 等文本模型的輸出內容添加統計浮水印的工具。基本上,每當 GPT 生成一些長文本時,我們希望在其單詞選擇中有一個不明顯的秘密信號,使你可以在之後用它來證明產出內容來自於 GPT。我們想讓 GPT 的產出更容易被分辨出來,那並不是來自人類的產出。」

「這對於防止學術抄襲是很有幫助的,也有益於防止大規模的宣傳用途。——比方說用看似切合主題的評論文章向每個部落格發送垃圾郵件,或是冒充某人的寫作風格再回頭對他們加以指控等等。」

當然,他也提到,數位浮水印並不是萬能的,如果採用另一個 AI 來演算輸出 GPT 的內容,那確實無法偵測到。他們現在的目標是在未來的 GPT 版本中加上浮水印。

那麼,應該將 AI 用於 SEO 目的嗎?

  • 首先,人工智慧內容是可檢測的

雖然許多人說,Google無法知道內容是否是使用 AI 生成的。

但我無法理解為什麼有人會持有這種觀點,因為檢測人工智慧是一個或多或少已經解決的問題。甚至可以偵測部署反偵測算法的內容(如上面研究論文中所述)。

檢測機器生成的內容一直是多年來多人研究的主題,包括如何檢測從另一種語言翻譯過來的內容。

  • 自動生成的內容違反了 Google 的指南?

Google 的 John Mueller 在 2022 年 4 月表示,人工智慧生成的內容違反了 Google 的準則

「人們一直在以多種不同的方式自動生成內容。對我們來說,如果您使用機器學習工具來生成您的內容,那本質上就好像只是在四處亂打單詞、尋找同義詞或執行人們過去常做的翻譯內容一樣。我所懷疑的是,透過自動生成產出的內容,品質也許比真正的老派工具好一點,但對我們來說它仍然是自動生成的內容,這意味著,它仍然違反網站管理員的準則,所以我們會認為這是垃圾內容。」

Google 最近更新了其開發者頁面中關於垃圾內容的「自動生成」相關內容,資訊建立於 2022 年 10 月,更新時間接近 2022 年 11 月底。

最初的版本

「自動生成(Automatically generated)的內容是以編程方式產生的內容,沒有產生任何原創內容,或增加足夠的價值;」

Google 在更新內容後,加入了垃圾內容(spammy)一詞:

「垃圾自動生成(Spammy automatically generated )的內容是以編程方式產生的內容,沒有產生任何原創內容,或增加足夠的價值;」

更新後的內容似乎是為了澄清,並非自動生成的內容都是垃圾內容,而是缺乏附加價值使其成為有問題的內容。

  • ChatGPT 可能在某個時刻加上浮水印

最後,OpenAI 研究人員表示(在 ChatGPT 發布前幾週)浮水印「有望」出現在下一版本的 GPT 中。因此,即使 ChatGPT 尚未加上浮水印內容,但它可能會在某個版本更新後加上。

AI 在 SEO 中的最佳應用

利用 AI 服務來對網頁內容進行總結,並建立 Meta Description 可能是能被接受的用途,因為 Google 明確地表示這樣的做法並沒有違反準則。

而使用 ChatGPT 生成大綱或內容簡介可能是一個有趣的用途。

至於不進行審查,直接將 AI 產出的內容原封不動地發佈出去,可能不是最佳的使用方法。

Source – ChatGPT For Content and SEO?

延伸閱讀:ChatGPT (Open AI)能用來生產 SEO 內容嗎?