點此下載簡報
什麼是資策會生成式 AI 能力認證?
資策會生成式 AI 能力認證 是一個專門針對生成式人工智慧技術所設計的專業證照制度。這個認證的目標很明確,就是要幫助學習者建立完整的 AI 知識體系,從基礎理論到實際應用都涵蓋在內。
認證的核心價值與市場需求
我們可以把這個認證想像成一把開啟 AI 世界大門的鑰匙。在當今的就業市場中,擁有 AI 相關技能的人才供不應求,而生成式 AI 更是其中的熱門領域。根據市場調查顯示,具備生成式 AI 能力的專業人士,平均薪資比一般職位高出 30% 以上。
這個認證的價值不僅在於證明個人的技術能力,更重要的是它代表了一種思維模式的轉變。通過認證的學習過程,我們不只是學會使用工具,更學會如何用 AI 的角度思考問題、解決問題。這種思維能力在未來的工作環境中,將會變得越來越重要。
資策會生成式 AI 能力認證的 考試簡章。
認證適合哪些人報考?
這個認證的設計相當靈活,適合不同背景的專業人士。無論你是資訊科技從業人員、行銷企劃、內容創作者,還是企業管理階層,都能從這個認證中獲得價值。特別是那些希望在職涯中加入 AI 元素的工作者,這個認證更是不可或缺的敲門磚。
當然,對於完全沒有技術背景的人來說,可能需要更多的準備時間。但這並不意味著無法達成,因為認證的設計考慮到了不同程度學習者的需求,提供了循序漸進的學習路徑。

生成式 AI 認證考試範圍詳解 簡報下載
點此下載簡報
了解考試範圍是準備認證的第一步,就像我們在出發旅行前要先確認目的地一樣。資策會的生成式 AI 認證涵蓋了相當廣泛的知識領域,每個部分都有其重要性和相關性。
以下是自己從網路上收集,以及個人考過的經驗,並請 AI 協助整理之重點,如有雷同純屬巧合。
第一章:AI 基礎概念與生成式 AI 概覽
本章將帶領學員了解人工智慧的發展歷程,並深入探討生成式 AI 與傳統 AI 之間的異同,建立對 AI 領域的宏觀認知。
1.1 人工智慧發展歷程概覽
人工智慧的發展歷程如同學習一門學科的歷史背景,有助於我們理解現今技術的演進脈絡。從早期的專家系統 (Expert System) 到現今的大型語言模型 (Large Language Model),每個階段都有其獨特的特徵與貢獻。本節將探討機器學習 (Machine Learning) 與深度學習 (Deep Learning) 如何在傳統規則式系統的基礎上發展起來。
1.2 生成式 AI 與傳統 AI 的比較
生成式 AI 與傳統 AI 雖然都依賴大量資料進行訓練與決策,但在訓練資料規模上,生成式 AI 可能大幾個量級。
◦ 共同特點 兩者都利用大量資料來進行訓練與決策。
◦ 主要差異
▪ 主要用途:傳統 AI 系統的用途通常是為了比人類更好的表現或更低的成本執行特定任務,例如偵測信用卡詐騙、判斷行車方向或未來駕駛車輛。而生成式 AI 的用途則更為廣泛,它能夠建立全新和原創的內容,這些內容與訓練資料相似,但並不存在於資料中。
▪ 成本:傳統 AI 的成本通常較低,而生成式 AI 的成本通常較高。
▪ 任務廣泛度:傳統 AI 的任務廣泛度較低,生成式 AI 則較高。
▪ 訓練方法:傳統 AI 通常採用監督式學習 (Supervised Learning),而生成式 AI 則多採用非監督式學習 (Unsupervised Learning)。
| 特性 | 傳統 AI | 生成式 AI |
|---|---|---|
| 成本 | 低 | 高 |
| 任務廣泛度 | 低 | 高 |
| 主要用途 | 偵測、判斷 | 生成內容 |
| 訓練方法 | 監督式學習 | 非監督式學習 |
1.3 多模態 AI 簡介
多模態 AI (Multimodal AI) 是一種能夠處理、解釋並結合多種資料形式的人工智慧。這些資料形式包括文字、圖像、音訊、視頻和數值資料。與傳統專注於單一資料類型的 AI 模型不同,多模態 AI 能夠跨越這些界限,同時處理多種輸入形式,並在不同資料類型之間建立聯繫和理解。其應用範例包含能夠看圖回答問題、生成與文字描述相符的圖像,或將影片內容轉換為文字描述的系統。
第二章:機器學習與深度學習核心原理
本章將深入探討生成式 AI 的技術基礎——機器學習與深度學習,從最基本的概念到複雜的神經網絡架構,幫助學員建立堅實的技術基礎。
2.1 機器學習基礎
機器學習是生成式 AI 的重要技術基礎,就像建築物的地基一樣。它主要分為三種基本原理:
◦ 監督式學習 (Supervised Learning):透過標記數據進行訓練,模型學習如何從輸入映射到輸出。
◦ 非監督式學習 (Unsupervised Learning):處理無標記數據,模型自主學習數據中的模式與結構。
◦ 強化學習 (Reinforcement Learning):讓智能體透過與環境互動來學習如何做出決策,以最大化獎勵。
2.2 神經網絡概論
深度學習的核心是神經網絡 (Neural Network),它被設計來模仿人腦的運作方式,透過層層處理來理解和生成資訊。
◦ 前饋網絡 (Feedforward Network):信息從輸入層單向流向輸出層,是最基本的神經網絡類型。
2.3 訓練過程中的關鍵要素
◦ 損失函數 (Loss Function) 損失函數是訓練過程中的關鍵元素,它衡量模型預測與實際目標之間的差距。損失函數的數值是越小越好,表示模型的預測結果越接近真實目標。
◦ 反向傳播 (Backpropagation) 反向傳播是教電腦學習的一種方法,就像不斷糾正錯誤一樣。其過程包括:電腦先猜一個答案 (前向傳播),然後計算猜錯了多少 (計算誤差)。接著,從最後一步往回檢查,看每一步錯在哪裡 (反向傳播誤差),最後透過數學方法 (鏈式法則) 算出每個設定值需要如何調整,並微調這些設定值,讓下次猜得更準。反向傳播解決了如何有效率地調整複雜神經網絡的難題,在此方法發明之前,深度學習幾乎是不可能實現的。TensorFlow 和 PyTorch 等工具已將此複雜過程自動化。
2.4 序列數據處理的神經網絡模型
◦ 循環神經網絡 (RNN) RNN 是一種特殊的神經網絡結構,專門設計用來處理序列數據。與傳統前饋神經網絡不同,RNN 具有「記憶」能力,可以記住之前的信息並用於影響當前的輸出。
▪ 特點與應用:RNN 包含循環連接,允許信息持續流動,形成短期「記憶」。它特別適合處理有先後順序的時間序列數據,如文本、語音、視頻,並在序列的不同時間步驟中使用相同的權重參數。應用範圍廣泛,包括自然語言處理、語音識別、時間序列預測和音樂生成等。
▪ 梯度消失與梯度爆炸問題:傳統 RNN 存在梯度消失 (Gradient Vanishing) 和梯度爆炸 (Gradient Exploding) 問題,導致難以捕捉長期依賴關係。
• 梯度消失是指在訓練過程中,梯度值變得異常小,接近於零,導致參數幾乎不更新,模型學習停滯,無法學習長距離依賴關係。主要原因包括激活函數的選擇 (如 Sigmoid/Tanh 導數接近零)、反向傳播的連乘效應和網路層數過多。
• 梯度爆炸是指梯度值變得異常大,導致參數更新時出現非常大的變化,使模型無法收斂,甚至出現數值溢出。
▪ 解決方案:為了解決這些問題,發展出了多種改進版本,如 LSTM 和 GRU。其他方法包括使用 ReLU 等更好的激活函數、殘差連接、批量標準化、梯度裁剪和權重正則化等。
◦ 長短期記憶網絡 (LSTM) LSTM 由 Hochreiter 和 Schmidhuber 在 1997 年提出,能夠有效解決傳統 RNN 的梯度消失問題,捕捉數據中的長期依賴關係。
▪ 原理與門控機制:LSTM 的核心是細胞狀態 (cell state),這是一個長期記憶通道。它包含三種門控機制:
• 輸入門 (input gate):控制新信息進入細胞狀態的程度。
• 遺忘門 (forget gate):決定哪些舊信息應該被丟棄。
• 輸出門 (output gate):控制細胞狀態對當前輸出的影響程度。
▪ 優勢與應用:LSTM 能夠處理長序列數據,廣泛應用於機器翻譯、語音識別和情感分析等需要理解長期上下文的任務。
◦ 門控循環單元 (GRU) GRU 由 Cho 等人在 2014 年提出,是 LSTM 的簡化版本。
▪ 原理與門控機制:GRU 直接使用隱藏狀態作為記憶,結構更簡單。它包含兩種門控機制:
• 更新門 (update gate):決定保留多少過去的信息和加入多少新信息。
• 重置門 (reset gate):決定如何將新輸入與過去的記憶結合。
▪ 優勢與應用:GRU 參數更少,訓練更快,在某些任務上性能與 LSTM 相當,特別是在數據集較小時可能表現更好。應用於文本分類、情感分析和音樂生成等。
▪ LSTM 與 GRU 比較:LSTM 更複雜,參數更多;GRU 結構更簡單,計算效率更高。在大多數任務上表現相似,但 LSTM 在需要記住非常長期依賴關係的任務上可能更有優勢。通常建議先嘗試 GRU,若效果不理想再嘗試 LSTM。
◦ 轉換器模型 (Transformer) Transformer 是一種革命性的 AI 設計方法,讓 AI 能夠同時「看到」一段文字的全部內容,理解文字間的關聯。它是目前音樂生成領域最先進的模型之一。
▪ 超越 RNN 的優勢:Transformer 相比 RNN 具有多項優勢,使其成為更強大和有彈性的序列表示方法。
• 平行處理能力:Transformer 可以並行處理整個序列,而 RNN 必須按順序處理,這在訓練時間上具有巨大優勢。這也是 ChatGPT 能夠快速且適切回應的關鍵特性。
• 長距離依賴性:通過自注意力機制 (self-attention),Transformer 能更有效地捕捉序列中的長距離依賴關係,不會像 RNN 那樣遇到梯度消失問題。
• 雙向理解:Transformer 可以同時考慮序列前後的上下文信息,而標準 RNN 只能考慮之前的信息。
• 可擴展性:Transformer 架構易於擴展到更大的模型和數據集,促成了 BERT、GPT、Claude 等大型語言模型的發展。
• 注意力分配:其注意力機制使模型可以動態地決定關注輸入序列中的哪些部分,比 RNN 的固定記憶機制更靈活.

第三章:生成式 AI 核心模型與技術
本章將深入介紹生成式 AI 中最為關鍵的幾種模型,包括生成對抗網絡、擴散模型、變分自動編碼器和卷積神經網絡,以及自回歸模型,理解它們的工作原理和應用。
3.1 生成式對抗網絡 (GAN)
GAN 由兩個相互競爭的神經網絡組成。
◦ 生成器 (Generator):負責「創造」假的數據,像一個偽造者,從隨機噪聲開始,學習產生逼真的內容 (如圖像、音樂或文字)。
◦ 鑑別器 (Discriminator):負責「鑑定」數據的真偽,像一個鑑定專家,區分真實數據和生成器製造的假數據。
◦ 工作原理與應用:兩個網絡之間形成「博弈」關係,生成器嘗試欺騙鑑別器,鑑別器努力提高鑑別能力。這種對抗過程讓生成器產生的內容越來越逼真,廣泛應用於高質量圖像、音頻、視頻的生成,以及藝術創作、數據增強、圖像修復等。GAN 尤其適合視訊和影像相關應用。兩個競爭的神經網路通常以 CNN 架構為基礎,但也可能是 RNN 或 Transformer 的變體。
3.2 擴散模型 (Diffusion Models)
擴散模型 是一類基於逐步添加和移除噪聲的生成模型。
◦ 工作原理:
▪ 前向過程 (擴散過程):將隨機噪聲逐步添加到原始數據中,直到數據變成完全的噪聲。
▪ 反向過程 (去噪過程):學習如何從噪聲中逐步恢復原始數據,這是模型實際生成內容的過程。
◦ 主要特點:生成質量高 (能產生非常逼真的圖像)、訓練穩定 (比 GAN 更容易訓練)、多樣性好 (能生成多樣化結果)、可控性強 (通過條件引導控制生成過程)。
◦ 應用範例:著名的模型應用包括 DALL-E、Stable Diffusion 和 Midjourney。這種模型不僅應用於圖像生成,也逐漸擴展到音頻、視頻和 3D 模型生成等領域。
◦ Stable Diffusion 的實現:Stable Diffusion 工具在增加/消除雜訊步驟中使用兩種 CNN 變體,並分別使用 VAE 編碼器和解碼器執行第一步和最後一步。
3.3 變分自動編碼器 (VAE)
VAE (Variational Autoencoder) 是一種特殊的深度學習模型,它能夠學習並創造出新的內容,就像電腦的「想像力工具」。
◦ 編碼器 (Encoder):學習影像的重要特徵並壓縮資訊,以表示法儲存。它將輸入數據轉換成「潛在空間」中的一組分布參數 (均值 μ 和標準差 σ)。
◦ 解碼器 (Decoder):從壓縮資訊中嘗試重新建立原始資訊。它從潛在空間採樣,然後生成原始數據空間的新樣本。
◦ 工作原理:類似於學習畫貓,編碼器學習貓的特徵,大腦形成「貓」的概念,解碼器根據概念創作新的貓。
◦ 損失函數組成:VAE 的損失函數通過兩種方式評估和改進:
▪ 重建損失:比較原始輸入與重建輸出的差異。
▪ KL 散度:確保潛在空間的分布有規律,使創造過程更穩定。
◦ 實際應用:圖像生成 (創造新的動物、人臉或藝術作品)、數據去噪、異常檢測和分子設計。
◦ 與影像生成整合:VAE 在神經網絡架構和訓練過程中運用創新,通常會整合到影像生成應用程式中。編碼器和解碼器可以分別使用不同的基礎架構,例如 RNN、CNN 或 Transformer。
3.4 卷積神經網絡 (CNN)
CNN 的核心在於它能夠自動學習圖像的特徵。
◦ 基本概念與核心元素:CNN 透過以下關鍵元素實現特徵學習:
▪ 卷積層 (Convolutional Layer):使用「濾波器」或「卷積核」在圖像上掃描,尋找特定的圖像特徵 (如邊緣、紋理)。
▪ 池化層 (Pooling Layer):幫助減少資料維度,同時保留重要資訊,常見有最大池化和平均池化。
▪ 激活函數 (Activation Function):如 ReLU,引入非線性特性,讓網絡學習更複雜的模式。
▪ 全連接層 (Fully Connected Layer):通常位於網絡末端,將學到的特徵映射到最終分類結果。
◦ 運作方式比喻:CNN 就像一位藝術鑑賞家,用小框框掃描畫作,注意特定元素,簡化記憶最突出特徵,最終結合所有觀察做出判斷。
◦ 優勢與應用:CNN 具有參數共享 (同一個特徵偵測器可用於整個圖像)、平移不變性 (無論物體位置如何,都能辨識) 和層次化特徵學習 (從簡單到抽象特徵) 的優勢。它已成為電腦視覺任務的基石,包括圖像分類、物體檢測、人臉辨識等多種應用。
3.5 自回歸模型 (Autoregressive Models)
自回歸模型 的核心思想是將序列數據中的每個元素視為依賴於之前元素的條件概率。
◦ 核心思想與應用領域:例如,在語言模型中,一個詞的出現概率取決於它前面出現的詞。應用於自然語言處理 (如 GPT 系列通過預測下一個詞生成文本)、時間序列分析、音頻處理和圖像生成。
◦ 與其他模型的區別:自回歸模型與自編碼器 (Autoencoder) 不同,後者專注於學習數據的壓縮表示,而自回歸模型則專注於序列預測和生成。
◦ 優缺點:
▪ 優點:在處理序列數據時非常有效;能夠捕捉序列中的長期依賴關係;生成的結果通常連貫且自然。
▪ 缺點:生成過程是順序的,不能並行化,可能較慢;可能存在錯誤累積問題;處理很長序列時可能會遺忘早期信息 (但注意力機制已改善)。

第四章:自然語言處理與大型語言模型應用
本章將聚焦於生成式 AI 在自然語言處理領域的應用,特別是大型語言模型 (LLM) 的崛起,以及不同主流模型的特性。
4.1 自然語言處理技術基礎
自然語言處理 (NLP) 是生成式 AI 中最重要的應用領域之一,它讓電腦能夠理解和生成人類的語言。核心概念包括詞向量 (Word Embedding) 和注意力機制 (Attention Mechanism)。
4.2 大型語言模型 (LLM) 擴展應用
近年來的趨勢是將大型語言模型的架構應用於其他領域,例如音樂生成。Google 的 MusicLM 和 OpenAI 的 Jukebox 都能夠根據文字描述生成音樂,例如「一首輕快的爵士鋼琴曲」。
4.3 主流大型語言模型解析
◦ GPT 系列 GPT (Generative Pre-trained Transformer) 系列是基於 Transformer 架構發展而來的自回歸語言模型。ChatGPT 便是最知名的生成式 AI 工具之一。
◦ BERT 模型 BERT 模型的核心特點是雙向語境理解能力。它通過「遮蔽語言模型」(Masked Language Model) 和「下一句預測」(Next Sentence Prediction) 兩個預訓練任務來學習文本表示。
▪ 與 GPT 系列的差異:BERT 可以同時考慮文本的左右上下文,而早期的 GPT 模型主要是單向的 (只從左到右)。在預訓練方式上,BERT 使用遮蔽語言模型,GPT 系列則使用自回歸語言模型。最新的 GPT-4 等模型規模遠大於 BERT。
▪ 與 LLaMA 系列的差異:LLaMA 是 Meta 發布的開源大型語言模型,BERT 也是開源的。LLaMA 更專注於高效的解碼器架構,而 BERT 是純編碼器模型。LLaMA 模型規模更大,生成能力更強。
◦ Claude 與其他對話式 AI Claude 是另一個重要的對話式 AI 平台。它在邏輯推理和文本分析方面表現出色,而 ChatGPT 則在創意寫作和程式開發上有不錯的表現。了解不同 AI 工具的特性和適用場景,有助於選擇最合適的工具。
——————————————————————————–
第五章:生成式 AI 實務應用
本章將探討生成式 AI 在不同領域的實際應用,包括音樂生成、影像生成和對話式 AI 工具的實作技巧,尤其是提示工程的重要性。
• 5.1 音樂生成 AI
音樂生成 AI 系統會學習大量現有音樂作品的模式 (旋律、和聲、節奏、結構),學習音樂的「語法」和「規則」。訓練完成後,AI 可以從頭創作新音樂、根據提供的開頭繼續創作,或根據特定風格或情感提示生成相應音樂。
◦ 常用技術:
▪ 神經網絡模型:循環神經網絡 (RNN) 擅長處理序列資料,長短期記憶網絡 (LSTM) 能記住長時間的音樂模式,轉換器模型 (Transformer) 能夠同時關注音樂的多個部分。
▪ 生成式對抗網絡 (GAN):包含生成音樂的網絡和評判真實度的網絡,通過競爭生成接近真實的音樂。
▪ 大型語言模型 (LLM) 擴展應用:如 Google 的 MusicLM 和 OpenAI 的 Jukebox,能根據文字描述生成音樂。
◦ 應用場景:電影和遊戲配樂創作、個人化音樂創作、音樂教育和學習工具,以及為內容創作者提供免版權音樂。
5.2 影像生成應用
電腦視覺讓機器「看懂」圖片和影像,而影像生成讓機器創造新的視覺內容,就像給機器裝上眼睛和畫筆。
◦ Midjourney 與 DALL-E 影像生成 影像生成工具為創意產業帶來革命性變化。Midjourney 和 DALL-E 是主流工具,它們的核心技術包括生成對抗網絡 (GAN) 和擴散模型 (Diffusion Model)。
▪ 有效影像描述技巧:需要學會撰寫有效的影像描述,包括風格指定、構圖要求、色彩配置等元素。例如,創造「未來城市」圖片可加上「cyberpunk style」、「neon lighting」、「aerial view」等關鍵詞。
▪ DALL-E 的文字整合優勢:DALL-E 在與文字的整合上有獨特的優勢。
5.3 ChatGPT 與 GPT 模型實作
要真正發揮 ChatGPT 的潛力,需要學會有效的提示工程技巧。
◦ 提示工程 (Prompt Engineering) 這是「如何與 AI 溝通」的技巧,能更有效地指導 AI 完成任務。
▪ 說明與簡單理解:就像給 AI 下指令的藝術,用對方式問問題,AI 就能給出更好的答案。
▪ 好與壞的提示範例:不好的提示如「黑洞是什麼?」,好的提示如「請用五歲小孩能懂的方式,用 3-5 個簡單句子解釋黑洞」。
▪ 應用場景:設計更自然的 AI 對話系統、創意寫作與內容生成、讓 AI 生成更準確的程式碼。
◦ API 應用 除了基本的對話功能,也需要了解 GPT 模型的 API 應用,包括如何透過程式呼叫 OpenAI 服務,以及如何設定參數控制輸出結果。

第六章:企業導入與倫理考量
本章將探討企業在導入生成式 AI 時的策略規劃、風險評估、資料治理與隱私保護,並著重於生成式 AI 所面臨的關鍵倫理議題。
6.1 AI 轉型規劃與風險評估
企業導入 AI 技術需要周詳的規劃和風險評估。
◦ 規劃重點:評估企業的 AI 成熟度、識別適合 AI 應用的業務場景,以及制定階段性的實施計劃。
◦ 風險評估面向:涉及技術風險、營運風險和法規風險等多個層面。例如,使用生成式 AI 可能面臨的著作權問題、資料洩露風險,以及對既有工作流程的衝擊等。
6.2 資料治理與隱私保護
資料是 AI 的燃料,但如何安全、合規地使用資料是企業必須面對的挑戰。
◦ 資料的重要性:需要專業知識和謹慎態度來處理珍貴的資料。
◦ 治理與保護措施:包括資料品質管理、資料安全控制,以及個人資料保護法 (PDPA) 等相關法規要求。特別是在使用雲端 AI 服務時,確保企業資料不被濫用是關鍵議題。
6.3 生成式 AI 倫理議題與挑戰
在 AI 應用中,有多項倫理考量需要被重視,以下列出各情境中未被明確涵蓋的倫理議題,這代表在設計或使用 AI 系統時,這些方面可能需要進一步的關注和改進:
◦ 偏見與公平性 (Bias & Fairness):情境中需確保系統不會對特定群體產生不公平結果。例如,招聘系統避免因訓練數據偏見導致的不公平篩選,或智能家居 AI 如何確保對所有用戶公平。新聞摘要 AI 設計時也需避免政治偏見。
◦ 責任歸屬 (Responsibility):當 AI 出錯或提供錯誤建議導致損失時,誰該負責? 例如,智能客服 AI 出錯的責任歸屬 或金融諮詢 AI 錯誤建議導致損失的責任歸屬。
◦ 穩健與安全防護 (Robustness & Safety):系統應有內建機制防止生成不適當內容,並保護使用者安全。例如,內容創作 AI 防止生成暴力內容、教育 AI 助手確保學生安全,以及智能家居 AI 系統的高安全性加密。
◦ 透明度 (Transparency):系統應清楚表明自身是 AI 生成,並說明 AI 如何評估資料或提供建議的依據。例如,招聘公司告知應徵者 AI 輔助篩選,內容創作 AI 標明內容由 AI 生成,或智能客服 AI 清楚表明自己是 AI。
◦ 隱私保護 (Privacy Protection):應明確說明如何保護應徵者的個人資料隱私,或用戶資料如何被使用和加密處理。例如,醫療診斷助手使用去識別化數據,智能家居 AI 系統採用高安全性加密保護用戶數據。
◦ 知識產權尊重 (Intellectual Property):系統應避免完全複製受版權保護的作品,並處理可能的知識產權問題。例如,內容創作 AI 引用參考來源,影像 AI 創作者選擇作品是否用於訓練。
◦ 準確性與可靠性 (Accuracy & Reliability):系統應定期更新以納入最新研究,並確保其建議存在風險的說明。例如,醫療診斷助手 AI 定期更新醫學研究,教育 AI 助手定期更新課程資料以維持準確性。
◦ 人類自主性 (Human Autonomy):系統應強調其建議僅為初步建議,最終決定應由人類做出。例如,醫療診斷助手告知這只是初步建議,最終決定由醫生做出。影像 AI 未明確提到人類在決策過程中的最終自主權。
◦ 文化多樣性 (Cultural Diversity):系統設計應考慮多種語言和表達方式,以服務不同文化背景的顧客,並確保不同背景學生獲得合適內容。例如,智能客服 AI 服務不同文化背景顧客。
◦ 長期影響考量 (Long-term Impact):需要考量 AI 對社會、創意產業等可能產生的長期影響。例如,內容創作 AI 對社會和創意產業的長期影響 或城市規劃 AI 對社區的影響。