OpenAI的取名藝術鑑賞

這裡https://platform.openai.com/docs/models/記錄了 OpenAI 的所有模型。

太遠了的不說,從 GPT-4 系列及同世代模型聊起,這是我彙總的表格:

名稱描述模型卡片連結
ChatGPT-4oGPT-4o model used in ChatGPThttps://platform.openai.com/docs/models/chatgpt-4o-latest
GPT-4An older high-intelligence GPT modelhttps://platform.openai.com/docs/models/gpt-4
GPT-4 TurboAn older high-intelligence GPT modelhttps://platform.openai.com/docs/models/gpt-4-turbo
GPT-4 Turbo PreviewDeprecated An older fast GPT modelhttps://platform.openai.com/docs/models/gpt-4-turbo-preview
GPT-4.1Smartest non-reasoning modelhttps://platform.openai.com/docs/models/gpt-4.1
GPT-4.1 miniSmaller, faster version of GPT-4.1https://platform.openai.com/docs/models/gpt-4.1-mini
GPT-4.1 nanoFastest, most cost-efficient version of GPT-4.1https://platform.openai.com/docs/models/gpt-4.1-nano
GPT-4.5 PreviewDeprecated large model.https://platform.openai.com/docs/models/gpt-4.5-preview
GPT-4oFast, intelligent, flexible GPT modelhttps://platform.openai.com/docs/models/gpt-4o
GPT-4o AudioGPT-4o models capable of audio inputs and outputshttps://platform.openai.com/docs/models/gpt-4o-audio-preview
GPT-4o miniFast, affordable small model for focused taskshttps://platform.openai.com/docs/models/gpt-4o-mini
GPT-4o mini AudioSmaller model capable of audio inputs and outputshttps://platform.openai.com/docs/models/gpt-4o-mini-audio-preview
GPT-4o mini RealtimeSmaller realtime model for text and audio inputs and outputshttps://platform.openai.com/docs/models/gpt-4o-mini-realtime-preview
GPT-4o mini Search PreviewFast, affordable small model for web searchhttps://platform.openai.com/docs/models/gpt-4o-mini-search-preview
GPT-4o mini TranscribeSpeech-to-text model powered by GPT-4o minihttps://platform.openai.com/docs/models/gpt-4o-mini-transcribe
GPT-4o mini TTSText-to-speech model powered by GPT-4o minihttps://platform.openai.com/docs/models/gpt-4o-mini-tts
GPT-4o RealtimeModel capable of realtime text and audio inputs and outputshttps://platform.openai.com/docs/models/gpt-4o-realtime-preview
GPT-4o Search PreviewGPT model for web search in Chat Completionshttps://platform.openai.com/docs/models/gpt-4o-search-preview
GPT-4o TranscribeSpeech-to-text model powered by GPT-4ohttps://platform.openai.com/docs/models/gpt-4o-transcribe
GPT-4o Transcribe DiarizeTranscription model that identifies who’s speaking whenhttps://platform.openai.com/docs/models/gpt-4o-transcribe-diarize
o1Previous full o-series reasoning modelhttps://platform.openai.com/docs/models/o1
o1-miniA small model alternative to o1https://platform.openai.com/docs/models/o1-mini
o1-proVersion of o1 with more compute for better responseshttps://platform.openai.com/docs/models/o1-pro
o3Reasoning model for complex tasks, succeeded by GPT-5https://platform.openai.com/docs/models/o3
o3-proVersion of o3 with more compute for better responseshttps://platform.openai.com/docs/models/o3-pro
o3-miniA small model alternative to o3https://platform.openai.com/docs/models/o3-mini
o4-miniFast, cost-efficient reasoning model, succeeded by GPT-5 minihttps://platform.openai.com/docs/models/o4-mini

針對音頻(Audio)、實時(Realtime)、搜尋(Search)、音頻轉文字(Transcribe)、文字轉語音(TTS) 等場景,全都有相應模型。
對同一場景,如音頻Audio場景,提供了 GPT-4o AudioGPT-4o mini Audio 兩個模型,用戶需要透過嘗試決定能否接受效果。
音頻轉文字Transcribe場景,提供了 GPT-4o TranscribeGPT-4o mini TranscribeGPT-4o Transcribe Diarize 三個模型。
ChatGPT-4oGPT-4o 的特別版,用於 ChatGPT 中,其他場景不能用。
GPT-4.1GPT-4更好,是符合直覺的,但GPT-4o(4 歐)和GPT-4.1GPT-4卻不好比較。時間線上,先出現的是GPT-4,然後是GPT-4o,再然後是GPT-4.1,當然,仍然無法判斷GPT-4oGPT-4.1誰更好。
這裡插入下對「好」的定義,我個人將數學和推理結果正確率高作為「好」的定義,完全不將「速度」納入「好」的定義。但此前 OpenAI 可能認為速度和智慧同樣重要,因此出現奇怪的模型對比。進入 GPT-5 時代後,慶幸 OpenAI 開始放棄速度,追求智慧,至此模型間的對比才沒有歧義。一個快速的錯誤回答是浪費時間,沒有意義。

GPT-4時代,我摸索了小半年才發現o3是當時最好的模型,確認後我就只用它來解 bug 了。你可以看到它的描述"Reasoning model for complex tasks, succeeded by GPT-5"。OpenAI 直接選擇o3路線,推出下一代模型GPT-5
我相信會有很多人和我一樣在這一堆模型裡摸索,最後 OpenAI 能從後台發現,大家不約而同停留在o3上。

還有一個孤立的模型o4-mini,沒有o4模型,只有o4-minio3的繼任者是GPT-5o3-mini沒有繼任者,o4-mini的繼任者是GPT-5 mini

進入 GPT-5 時代對 OpenAI 來說是一個分水嶺,從此 OpenAI 開始放棄速度,追求智慧。放棄那麼多分支,對一家大企業來說是一個艱難的決定,但我相信這是正確的決定。

這是 Cursor 中的 GPT-5 系列模型選擇介面:

cursor_gpt-5_models

GPT-5 系列模型命名更規律,更符合直覺。

新的命名規則:基座版本 + 特化 + 規模 + 推理強度 + 計算資源

如:GPT-5.1-Codex-Max-High-Fast

儘管排列組合後仍然是一大堆,但至少不會像 GPT-4 系列模型那樣讓人一頭霧水。