生成式 AI 是什麼?跟機器學習差在哪裡?

一、生成式 AI 簡介

生成式 AI 是一種人工智慧技術,可產生各種類型的內容,

包括文字、圖片、聲音訊和合成資料。

那人工智慧又是什麼?

人工智慧是電腦科學的一個分支,專門研究如何創造一個「幫你做事的人」,

也叫智慧代理人 (Intelligence Agent),它可以自己推理、學習和行動。

所以人工智慧會研究如何讓機器可以自己思考和行動。

二、機器學習

在人工智慧中,機器學習是一個小分支。

它是一支程式,會根據輸入的資料,來訓練出一個模型。

當你訓練好這個模型,它可以根據新輸入的資料,做出預測。

這樣的話,你就不用自己寫程式來判斷,而是讓它自己學習。

想像一下你給小嬰兒,看動物圖片或繪本,

拿著一張又一張的狗或貓的照片給他看,

對它說「這是狗勾」、「這是貓貓」。

當你給小嬰兒看了多張照片,你就可以拿新的照片問他,「這是狗還是貓?」

他就可以回答正確,而他能辨識出來的前提,

就是因為他看了夠多狗貓的照片,所以才能辨識出來。

回到機器學習,就代表你要準備大量的狗貓的照片,

給你的機器學習程式來訓練模型。

你可能會想說,這麼麻煩,那還不如人工辨識就好了?

但重點是「規模化」的問題,

今天給你 500 張照片來辨識,你可能還吃得消,

如果給你 50000 張照片呢?你應該會受不了。

但機器學習可以「非常快速」辨識完成,

而且又不會像你一樣喊累,動不動說要離職。

這就是它可以取代你的地方,嗯我是說它可以輔助你提高效率。

而機器學習又有細分成「監督式學習」(Supervised Learning)

和「非監督式學習」(Unsupervised Learning)。

監督式學習是用有標籤的資料來訓練,

例如媽媽拿著一堆貓的照片跟小孩說「這是貓」,

「貓」就是「標籤」,而「照片上看到的東西」就是「特徵」。

小孩看了很多貓的照片,就是在了解這些照片有什麼共同的「特徵」,

進而推斷下一張照片是不是貓,

如果小孩猜錯,媽媽會再糾正,讓小孩知道如何分辨,

也就是重新訓練模型,讓判斷的錯誤縮到最小。

而非監督式學習則是「沒有標籤」,

例如媽媽拿著一堆貓和狗的照片給小孩,然後說「自己看!」

讓小孩自己歸類照片中的動物,然後判斷新的照片。

當然現實中不會這樣,以電子商務為例,

你手上有 10 萬筆消費者交易資料,

傳統上用人口統計變數(姓名、年齡、收入)分類可能不夠精準,

無法光用年齡就能預測他們會買什麼東西,

你就可以使用非監督式學習,依照消費者的屬性或行為,

把消費者分成不同的族群, 就可以更精準地推薦商品。

三、深度學習

另外還有深度學習,又是機器學習的分支,

使用人工神經網路,能處理比機器學習更複雜的模式。

人工神經網路的靈感來自於人腦,它們由許多互連的節點或神經元組成,

可以透過處理資料和進行預測來學習執行任務。

深度學習模型通常具有多層神經元,

這使得它們能夠學習比傳統機器學習模型更複雜的模式。

而神經網路有一個特色,可以使用「有標籤的資料」和「沒有標籤的資料」。

也叫做「半監督式學習」(Semi-Supervised Learning)。

它只需要一點點「有標籤的資料」,和大量「沒有標籤的資料」,就可以訓練模型。

「有標籤的資料」可以讓神經網路學習基本的概念,

而「沒有標籤的資料」則幫助神經網路「泛化」到新的例子。

就像媽媽給小孩看 10 張有註明是貓和 10 張有註明是狗的照片,

其他 100 張貓和 100 張狗沒有註明,叫小孩自己看,

但小孩自己有機會能判斷出來。

四、生成式 AI

而 生成式 AI 是深度學習的一個子集,所以它也使用人工神經網絡,

可以使用監督、非監督和半監督方法處理「有標籤的資料」和「沒有標籤的資料」。

而大型語言模型也是深度學習的子集。

它可以創造新的內容,像是文字、圖片、聲音等。它跟一般的 AI 模型不太一樣:

一般 AI 模型可能只會分類東西,

例如:「這是不是垃圾郵件」或「這是貓、那是狗」

生成式AI則可以創造全新的東西,例如:寫一篇文章、畫一張圖

生成式 AI 是怎麼運作的呢?

  1. 它會先學習大量的資料
  2. 從中找出規律和模式
  3. 然後根據你給的提示 (Prompt),創造出新的內容

例如你問它「貓是什麼?」,

它會綜合它學過的所有關於貓的知識或圖片,給你一個回答。

而目前生成式 AI 有幾種主要類型:

1. 文字生成 (Text-to-Text)

例如翻譯、寫文章、寫故事、講笑話。

目前巿面上知名的模型包含 Open AI 的 ChatGPT、Google 的 Gemini、微軟的 Copilot、Anthropic 的 Claude 和 Perplexity 出的 Perplexity

2. 圖片生成 (Text-to-Image):

根據文字描述畫圖,可以產生接近真實的照片,或卡通圖片。

像是你在上面看到的貓和狗的圖片,就是我用 Copilot 來生成的。

還有知名的模型例如 Midjourney 和 Stable Diffusion 都是圖片生成模型。

3. 影片生成 (Text-to-Video)

根據文字製作影片,像 Sora 就是 Open AI 使用 DALL-E 開發出來的,

不過目前尚未開放大眾使用 (怕功能大強大導致無法控制的局面)。

4. 任務執行 (Text-to-Task)

根據指令執行特定任務,例如 AutoGPT。

使用者不用一直下指令,AutoGPT 可以自動完成任務,

不需要人工干預,只要給它一個最終目標,

AutoGPT 就能自動產生完成任務的每個指令,

這種概念被稱為「AI 代理」( AI Agent),

而 GCP 供了幾種工具來使用生成式 AI:

1. Vertext AI Studio

讓開發者快速試用和客製化AI模型。

2. Vertex AI Agent Builder

不用寫程式就能創建AI應用

3. Gemini API

讓開發者使用 Google 的大型語言模型,

做出以 Gemini 為基礎的 AI 應用程式。

最後,生成式AI雖然功能強大,

但有時也會產生一些奇怪或錯誤的內容,

這叫做「幻覺」(Hallucination),

所以在使用時要小心驗證,不要盲目相信 AI 喔!

Table of Contents
返回頂端