GPT-4o mini從週四起向ChatGPT的免費用戶、ChatGPT Plus和團隊訂閱用戶開放,並將在下週向ChatGPT企業用戶開放。OpenAI計劃今後整合圖像、視頻、音頻到這個模型中。
OpenAI美東時間週四推出“GPT-4o mini”,稱這款新模型是“功能最強、成本偏低的模型”,計劃今後整合圖像、視頻、音頻到這個模型中。
這款mini AI模型是GPT-4o的衍生產品,後者是OpenAI迄今爲止速度最快、功能最強的模型,於今年5月份在發佈。GPT-4o中的“o”代表“omni”(全方位),該模型在音頻、視頻和文本能力上有所改進,能夠處理50種不同的語言,並且速度和質量都有所提高。
媒體報道,由微軟支持的OpenAI的估值已超過800億美元,雖然在生成式AI市場仍然佔據領頭羊地位,但該公司面臨的競爭壓力已經越來越大。OpenAI還需要找到賺錢的方式,因爲該公司在處理器和基礎設施上花費了大量資金來構建和訓練其模型。
而週四宣佈的mini AI模型是OpenAI致力於“多模態性”的一部分,即提供廣泛類型的AI生成媒體(如文本、圖像、音頻和視頻)在一個工具:ChatGPT中。
去年,OpenAI首席運營官Brad Lightcap告訴媒體:
“世界是多模態的。如果你考慮我們作爲人類處理和參與世界的方式,我們看見東西,聽到東西,說話——世界不僅僅是文本。因此,對我們來說,只有文本和代碼作爲單一模態、單一接口,感覺總是不完整的,因爲這些模型的強大能力和它們能做的事情遠遠不止於此。”
該公司表示,GPT-4o mini從週四起向ChatGPT的免費用戶、ChatGPT Plus和團隊訂閱用戶開放,並將在下週向ChatGPT企業用戶開放。
編輯/Jeffrey