人工智慧正在改變世界,同時也創造了一套全新的語言來描述它的運作方式。花五分鐘閱讀有關 AI 的內容,你就會遇到 LLM、RAG、RLHF,以及十幾個其他術語,這些術語甚至可能讓科技界裡非常聰明的人感到不安。這份術語表是我們試圖解決這個問題的嘗試。隨著該領域的發展,我們會定期更新它,所以請將它視為一個活躍的文件,就像它所描述的 AI 系統一樣。

通用人工智慧,或稱 AGI,是一個模糊的術語。但它通常指的是在許多,如果不是大多數任務上,比一般人類更強大的人工智慧。OpenAI 的執行長 Sam Altman 曾將 AGI 描述為「你可以聘請為同事的、相當於人類平均水準的系統」。同時,OpenAI 的章程將 AGI 定義為「高度自主的系統,在大多數經濟上有價值的工作中表現優於人類」。Google DeepMind 的理解與這兩個定義略有不同;該實驗室認為 AGI 是「在大多數認知任務上至少與人類一樣強大的人工智慧」。感到困惑嗎?別擔心——最前沿的人工智慧研究專家們也是如此。

AI 代理人(AI agent)指的是一個利用 AI 技術代表你執行一系列任務的工具——這超出了更基礎的 AI 聊天機器人所能做的範圍——例如申報費用、預訂機票或餐廳座位,甚至編寫和維護程式碼。然而,正如我們之前解釋過的,在這個新興領域中有很多活動部件,所以「AI 代理人」對不同的人可能意味著不同的東西。基礎設施仍在建設中,以實現其預期的功能。但基本概念暗示了一個自主系統,它可能會利用多個 AI 系統來執行多步驟任務。

將 API 端點(API endpoints)想像成軟體後端的「按鈕」,其他程式可以按下這些按鈕來讓它執行某些操作。開發人員使用這些介面來建立整合——例如,允許一個應用程式從另一個應用程式提取數據,或讓 AI 代理人直接控制第三方服務,而無需人工操作每個介面。大多數智慧家居設備和連接平台都有這些隱藏的按鈕,即使普通用戶從未見過或與之互動。隨著 AI 代理人變得越來越強大,它們越來越能夠自行尋找和使用這些端點,從而為自動化開啟了強大——有時是意想不到的——的可能性。

給予一個簡單的問題,人類大腦可以不假思索地回答——例如「長頸鹿和貓哪個比較高?」但在許多情況下,你可能需要筆和紙才能得出正確答案,因為有中間步驟。例如,如果一個農夫有雞和牛,牠們加起來有 40 個頭和 120 條腿,你可能需要寫下一個簡單的方程式來得出答案(20 隻雞和 20 頭牛)。

在 AI 的背景下,大型語言模型的鏈式思維推理(chain-of-thought reasoning)意味著將一個問題分解成更小、中間的步驟,以提高最終結果的品質。它通常需要更長的時間來獲得答案,但答案更有可能是正確的,尤其是在邏輯或編碼的上下文中。推理模型是從傳統的大型語言模型發展而來,並通過強化學習進行優化,以實現鏈式思維。

這是一個比「AI 代理人」更具體的概念,它指的是一個能夠自主地、一步一步地採取行動來完成目標的程式。編碼代理人(coding agent)是應用於軟體開發的專業版本。它不是簡單地為人類提供程式碼供其審查和貼上,而是能夠自主地編寫、測試和調試程式碼,處理通常會佔用開發者一天時間的迭代式、試錯式工作。這些代理人可以跨越整個程式碼庫進行操作,發現錯誤、運行測試並推送修復,而只需最少的人工監督。把它想像成僱用了一個非常快速、從不睡覺、從不失去專注力的實習生——儘管與任何實習生一樣,人類仍然需要審查工作。

儘管「計算」(compute)是一個多義詞,但它通常指的是驅動 AI 模型運行的關鍵計算能力。這種處理能力為 AI 行業提供了動力,使其能夠訓練和部署其強大的模型。這個詞通常是提供計算能力的硬體的簡稱——例如 GPU、CPU、TPU 和其他構成現代 AI 行業基石的基礎設施。

機器學習的一個子集,其中 AI 演算法採用多層次的人工神經網路(ANN)結構進行設計。這使得它們能夠與更簡單的基於機器學習的系統(如線性模型或決策樹)相比,做出更複雜的關聯。深度學習演算法的結構從人腦神經元相互連接的路徑中汲取靈感。

深度學習 AI 模型能夠自行識別數據中的重要特徵,而無需人類工程師定義這些特徵。該結構還支持能夠從錯誤中學習的演算法,並通過重複和調整的過程來改進其自身的輸出。然而,深度學習系統需要大量的數據點才能產生良好的結果(數百萬或更多)。與更簡單的機器學習演算法相比,它們通常需要更長的訓練時間——因此開發成本往往更高。

擴散(Diffusion)是許多藝術、音樂和文本生成 AI 模型的核心技術。受物理學啟發,擴散系統通過添加噪聲來緩慢地「破壞」數據的結構——例如照片、歌曲等——直到什麼都不剩下。在物理學中,擴散是自發且不可逆的——咖啡中的糖擴散後無法恢復成塊狀。但 AI 中的擴散系統旨在學習一種「反向擴散」過程來恢復被破壞的數據,從而獲得從噪聲中恢復數據的能力。

蒸餾(Distillation)是一種用於從大型 AI 模型中提取知識的技術,採用「教師-學生」模型。開發人員向教師模型發送請求並記錄輸出。有時會將答案與數據集進行比較,以查看其準確性。然後使用這些輸出來訓練學生模型,該模型被訓練來近似教師的行為。

蒸餾可用於基於大型模型創建一個更小、更有效率的模型,同時將蒸餾損失降到最低。這很可能是 OpenAI 開發 GPT-4 Turbo 的方式,它是 GPT-4 的一個更快版本。

雖然所有 AI 公司都在內部使用蒸餾,但一些 AI 公司也可能利用它來追趕前沿模型。從競爭對手那裡進行蒸餾通常會違反 AI API 和聊天助手的服務條款。

這指的是對 AI 模型進行進一步訓練,以優化其在比先前訓練重點更具體的任務或領域上的性能——通常通過輸入新的、專門的(即面向任務的)數據。

許多 AI 新創公司以大型語言模型為起點來建立商業產品,但它們正努力通過基於自身領域知識和專業知識的微調來補充早期的訓練週期,以提高目標行業或任務的實用性。

GAN,或稱生成對抗網路(Generative Adversarial Network),是一種機器學習框架,它支撐著生成式 AI 在生成逼真數據方面的許多重要發展——包括(但不限於)深度偽造工具。GANs 涉及使用一對神經網路,其中一個利用其訓練數據生成輸出,該輸出被傳遞給另一個模型進行評估。

這兩個模型本質上被編程為試圖互相超越。生成器試圖讓其輸出通過判別器,而判別器則努力識別人工生成的數據。這種結構化的競爭可以優化 AI 輸出,使其更加逼真,而無需額外的人工干預。儘管 GANs 最適用於較窄的應用(例如生成逼真的照片或影片),而不是通用 AI。

幻覺(Hallucination)是 AI 行業對 AI 模型「編造」的術語——字面意思是生成不正確的信息。顯然,這是 AI 品質的一個巨大問題。

幻覺會產生可能具有誤導性的 GenAI 輸出,甚至可能導致現實生活中的風險——帶來潛在的危險後果(想像一下健康查詢返回有害的醫療建議)。

AI 捏造信息的 هذا 問題被認為是由於訓練數據中的差距造成的。幻覺正在推動越來越專業化和/或垂直化的 AI 模型——即需要更狹窄專業知識的領域特定 AI——作為一種方法來降低知識差距的可能性並縮小虛假信息風險。

推理(Inference)是運行 AI 模型過程。它是讓模型根據先前見過的數據進行預測或得出結論。需要明確的是,沒有訓練就無法進行推理;模型必須在數據集中學習模式,然後才能有效地從這些訓練數據中推斷。

許多類型的硬體都可以執行推理,從智慧型手機處理器到強大的 GPU 再到定制設計的 AI 加速器。但並非所有硬體都能同樣好地運行模型。非常大的模型在筆記型電腦上進行預測可能需要很長時間,而在配備高端 AI 晶片的雲端伺服器上則不然。

大型語言模型,或稱 LLMs,是像 ChatGPT、Claude、Google 的 Gemini、Meta 的 AI Llama、Microsoft Copilot 或 Mistral 的 Le Chat 等流行 AI 助手中使用的 AI 模型。當你與 AI 助手聊天時,你就是在與一個大型語言模型互動,它會直接處理你的請求,或者藉助不同的可用工具(如網路瀏覽或程式碼解釋器)來處理。

LLMs 是由數十億個數值參數(或權重,見下文)組成的深度神經網路,它們學習單詞和短語之間的關係,並創建語言的表示,一種多維度的詞語地圖。

這些模型是通過編碼在數十億本書籍、文章和轉錄本中發現的模式而創建的。當你提示 LLM 時,模型會生成最符合該提示的模式。

記憶體快取(Memory cache)是指一個重要的過程,它能提升推理(AI 產生回應給用戶查詢的過程)的速度。本質上,快取是一種優化技術,旨在提高推理效率。AI 顯然是由高強度的數學計算驅動的,每次進行這些計算都會消耗更多電力。快取的目的是通過保存特定的計算以供將來的用戶查詢和操作使用,來減少模型可能需要運行的計算次數。有不同類型的記憶體快取,其中一種比較知名的 KV(或鍵值)快取。KV 快取適用於基於 Transformer 的模型,並通過減少生成用戶問題答案所需的時間(和演算法勞動)來提高效率,從而加快結果。

神經網路(Neural network)指的是支撐深度學習的、多層次的演算法結構——更廣泛地說,是自大型語言模型出現以來,生成式 AI 工具蓬勃發展的基礎。雖然從人腦密集互連的路徑中汲取靈感作為數據處理演算法設計結構的想法可以追溯到 1940 年代,但直到最近,圖形處理硬體(GPU)的興起——通過電子遊戲行業——才真正釋放了這一理論的潛力。這些晶片被證明非常適合訓練比早期時代更深層次的演算法——使基於神經網路的 AI 系統在語音識別、自主導航和藥物發現等許多領域都取得了更好的性能。

開源(Open source)指的是軟體——或越來越多的 AI 模型——其底層程式碼公開可用,任何人都可以使用、檢查或修改。在 AI 世界中,Meta 的 Llama 系列模型是一個突出的例子;Linux 是作業系統領域著名的歷史對應物。開源方法允許世界各地的研究人員、開發人員和公司在彼此的基礎上進行構建,加速進步並實現閉源系統難以提供的獨立安全審計。閉源意味著程式碼是私有的——你可以使用產品,但看不到它是如何工作的,就像 OpenAI 的 GPT 模型一樣——這已成為 AI 行業的關鍵爭論點之一。

平行化(Parallelization)意味著同時做許多事情,而不是一個接一個地做——就像有 10 名員工同時處理專案的不同部分,而不是一名員工按順序完成所有工作。在 AI 中,平行化對於訓練和推理都至關重要:現代 GPU 專門設計用於同時執行數千次計算,這也是它們成為該行業硬體支柱的主要原因。隨著 AI 系統變得越來越複雜,模型也越來越大,跨多個晶片和多台機器平行化工作的能力已成為決定模型構建和部署速度和成本效益的最重要因素之一。對更好平行化策略的研究現在已成為一個獨立的研究領域。

RAMageddon 是對席捲科技行業的一個不太有趣的趨勢的一個有趣的稱呼:隨機存取記憶體,或稱 RAM 晶片的短缺日益嚴重,而 RAM 晶片為我們日常生活中幾乎所有的科技產品提供動力。隨著 AI 行業的蓬勃發展,最大的科技公司和 AI 實驗室——都在爭奪最強大、最高效的 AI——正在購買大量 RAM 來為他們數據中心提供動力,以至於沒有多少留給我們其他人了。而這種供應瓶頸意味著剩下的東西越來越貴。

這包括遊戲(主要公司不得不提高遊戲機價格,因為更難找到設備的記憶體晶片)、消費電子(記憶體短缺可能導致智慧型手機出貨量出現十多年來最大的下滑)以及通用企業計算(因為這些公司無法獲得足夠的 RAM 來為自己的數據中心提供動力)等行業。價格上漲預計只會在可怕的短缺結束後停止,但不幸的是,目前還沒有真正跡象表明這將很快發生。

強化學習(Reinforcement learning)是一種訓練 AI 的方式,系統通過嘗試事物並因正確答案而獲得獎勵來學習——就像用零食訓練你心愛的寵物一樣,只是在這個場景中,「寵物」是一個神經網路,「零食」是一個表示成功的數學信號。與在固定標記範例數據集上進行訓練的監督學習不同,強化學習允許模型探索其環境、採取行動,並根據收到的反饋不斷更新其行為。這種方法在訓練 AI 玩遊戲、控制機器人,以及最近磨練大型語言模型的推理能力方面已被證明特別強大。像從人類回饋中學習(RLHF)這樣的技術,現在是領先的 AI 實驗室微調其模型以使其更有幫助、更準確和更安全的關鍵。

在人機溝通方面,存在一些明顯的挑戰——人們使用人類語言進行溝通,而 AI 程式則通過由數據驅動的複雜演算法過程來執行任務。Token(詞元)彌合了這一差距:它們是人機溝通的基本構件,代表由 LLM 處理或生成的離散數據片段。它們是通過一個稱為 Tokenization 的過程創建的,該過程將原始文本分解成語言模型可以消化的、大小適中的單元,類似於編譯器如何將人類語言翻譯成計算機可以理解的二進制代碼。在企業環境中,Token 也決定了成本——大多數 AI 公司按 Token 收費,這意味著企業使用得越多,支付的費用就越多。

開發機器學習 AI 涉及一個稱為訓練(training)的過程。簡單來說,這指的是輸入數據,以便模型可以從模式中學習並生成有用的輸出。本質上,這是系統響應數據特徵的過程,使其能夠將輸出調整到期望的目標——無論是識別貓的圖像還是按需生成俳句。

訓練可能很昂貴,因為它需要大量的輸入,而且所需的量一直在增加——這就是為什麼混合方法,例如用目標數據微調基於規則的 AI,可以在不從頭開始的情況下幫助管理成本。

一種技術,其中先前訓練過的 AI 模型被用作開發針對不同但通常相關任務的新模型的起點——允許將先前訓練週期中獲得的知識重新應用。

遷移學習(Transfer learning)可以通過簡化模型開發來節省效率。當模型正在開發的任務數據有限時,它也很有用。但需要注意的是,這種方法有局限性。依賴遷移學習來獲得通用能力的模型可能需要額外數據的訓練,才能在其關注的領域中表現良好。

權重(Weights)是 AI 訓練的核心,因為它們決定了用於訓練系統的數據中不同特徵(或輸入變數)的重要性(或權重)——從而塑造了 AI 模型。的輸出。

換句話說,權重是數值參數,它們定義了在給定的訓練任務中,數據集中最顯著的部分。它們通過對輸入進行乘法運算來實現其功能。模型訓練通常從隨機分配的權重開始,但隨著過程的進行,權重會進行調整,因為模型試圖獲得更接近目標的輸出。

例如,一個用於預測房價的 AI 模型,該模型在目標地點的歷史房地產數據上進行訓練,可以包含諸如臥室和浴室數量、物業是獨立式還是半獨立式、是否有停車位、車庫等特徵的權重。

最終,模型賦予這些輸入的權重反映了它們對房產價值的影響程度,基於給定的數據集。

驗證損失(Validation loss)是一個數字,它告訴你 AI 模型在訓練期間學習得有多好——數字越低越好。研究人員密切關注它,作為一種實時報告卡,用它來決定何時停止訓練、何時調整超參數,或者是否調查潛在問題。它幫助標記的關鍵問題之一是過度擬合(overfitting),即模型記住了其訓練數據而不是真正學習可以推廣到新情況的模式。把它想像成一個真正理解材料的學生和一個只是記住了去年考試內容的學生之間的區別——驗證損失有助於揭示你的模型正在變成哪一種。

本文會定期更新新資訊。

當您透過我們文章中的連結購買時,我們可能會獲得少量佣金。這不會影響我們的編輯獨立性。

Natasha 於 2012 年 9 月至 2025 年 4 月期間擔任 TechCrunch 的資深記者,常駐歐洲。加入 TC 之前,她曾為 CNET UK 評測智慧型手機,在此之前,她為 silicon.com(現已併入 TechRepublic)報導商業科技超過五年,當時她專注於行動和無線、電信與網路以及 IT 技能問題。她也曾為 The Guardian 和 BBC 等機構擔任自由撰稿人。Natasha 擁有劍橋大學英語學士學位,以及倫敦大學金史密斯學院新聞學碩士學位。

StrictlyVC 雅典站即將登場。聆聽歐洲科技領袖的直言不諱的見解,並與塑造未來的人建立聯繫。在名額用完之前鎖定您的席位。

被裁的 Oracle 員工試圖協商更好的離職方案。Oracle 拒絕了。Julie Bort

舊金山的房地產市場已經瘋了。Connie Loizos

駭客聲稱又一次 Instructure 被駭後,塗改了學校登入頁面。Lorenzo Franceschi-Bicchierai Zack Whittaker

AI 經濟的五位建築師解釋了問題出在哪裡。Connie Loizos

reMarkable 的新款 Paper Pure 平板電腦回歸基本,採用單色螢幕。Ivan Mehta

教育科技巨頭 Instructure 洩漏事件中,駭客竊取了學生的數據。Lorenzo Franceschi-Bicchierai

Ouster 的新款彩色雷達即將取代攝影機。Sean O'Kane

AI 術語解密:從 AGI 到權重,一篇搞懂常見 AI 概念AI 術語解密:從 AGI 到權重,一篇搞懂常見 AI 概念AI 術語解密:從 AGI 到權重,一篇搞懂常見 AI 概念AI 術語解密:從 AGI 到權重,一篇搞懂常見 AI 概念AI 術語解密:從 AGI 到權重,一篇搞懂常見 AI 概念AI 術語解密:從 AGI 到權重,一篇搞懂常見 AI 概念