7月6日,OpenAI宣布,其最新的大型語(yǔ)言模型GPT-4將通過(guò)其API正式開放使用。目前所有OpenAI的API付費(fèi)用戶(有成功支付歷史的)都可以訪問擁有8K上下文記憶的GPT-4。并且該公司計(jì)劃在本月底向新的開發(fā)人員開放API訪問權(quán)限,然后通過(guò)算力可用性來(lái)調(diào)整可用限制。
這也就意味著全球開發(fā)者都能使用GPT-4大型語(yǔ)言模型,來(lái)增強(qiáng)自己的應(yīng)用程序或開發(fā)全新的生成式AI應(yīng)用。
OpenAI周四在一篇博客文章中寫道,“自3月份以來(lái),數(shù)以百萬(wàn)計(jì)的開發(fā)人員要求訪問GPT-4 API,利用GPT-4的創(chuàng)新產(chǎn)品的范圍每天都在增長(zhǎng)。”
今年3月,OpenAI正式發(fā)布GPT-4,該模型可以接受圖像和文本輸入來(lái)生成文本(包括代碼),并在各種專業(yè)和學(xué)術(shù)基準(zhǔn)上達(dá)到“人類水平”,這是對(duì)其前身GPT-3.5的改進(jìn),后者只接受文本輸入。與過(guò)往GPT模型一樣,GPT-4是使用公開可用的數(shù)據(jù)進(jìn)行訓(xùn)練的,包括來(lái)自公共網(wǎng)頁(yè)的數(shù)據(jù)以及OpenAI許可的數(shù)據(jù)。
GPT-4在上下文窗口方面保持了之前的桂冠,默認(rèn)為8k個(gè)token(token是模型處理文本的基本單位),上限為32k個(gè)token。一般來(lái)說(shuō),上下文窗口更大的模型越能記住最近對(duì)話的內(nèi)容,而窗口較小的模型在對(duì)話過(guò)程中容易忘記上文內(nèi)容,導(dǎo)致它們偏離主題。
支持任何用例
博客文章還指出,“我們?cè)O(shè)想未來(lái)基于聊天的模型可以支持任何使用案例?!?/p>
OpenAI還計(jì)劃推出GPT-3.5 Turbo,DALL·E和Whisper的API接口。
GPT-3.5 Turbo是OpenAI的另一個(gè)文本生成模型之一,但功能較GPT-4較弱;DALL-E 2是OpenAI的圖像生成模型;而Whisper是該公司的語(yǔ)音轉(zhuǎn)文本模型。
目前圖像理解功能還沒有提供給所有OpenAI的客戶。據(jù)悉,OpenAI正在與一家名為“Be My Eyes”的合作伙伴進(jìn)行測(cè)試,但它還沒有表明何時(shí)會(huì)向更廣泛的客戶群開放。
OpenAI還表示,在未來(lái),它將允許開發(fā)人員用自己的數(shù)據(jù)微調(diào)GPT-4和GPT-3.5 Turbo,這一功能或?qū)⒃诮衲晖硇r(shí)候?qū)崿F(xiàn)。
淘汰和替代
值得注意的是,即使是當(dāng)今最好的生成式人工智能模型之一,GPT-4也并不完美。它會(huì)對(duì)事實(shí)產(chǎn)生錯(cuò)誤認(rèn)知,有時(shí)還會(huì)“很自信”地犯一些推理錯(cuò)誤,并在一些復(fù)雜問題上失敗了。
對(duì)此,OpenAI還宣布將在Completions API中淘汰幾個(gè)舊版模型,未來(lái)的模型將側(cè)重于Chat Completions API,作為該公司優(yōu)化計(jì)算能力的一部分。
下圖是OpenAI宣布淘汰的舊模型,以及替代它們的新模型:
OpenAI將在6個(gè)月內(nèi)淘汰這些Completions API的舊型號(hào)。雖然現(xiàn)下這個(gè)API仍然可以訪問,但從今天開始,該公司將在開發(fā)人員文檔中將其標(biāo)記為“遺留”。從2024年1月4日開始,舊的Completions API將不再可用。
本文標(biāo)題: OpenAI全面開放GPT-4給API付費(fèi)用戶
本文地址: http://www.eat023.com/brand/news-s22up81988.html
內(nèi)容均來(lái)源于網(wǎng)絡(luò),錯(cuò)誤糾正或刪除請(qǐng)發(fā)郵件,收件郵箱kefu@huangye88.com
2009-2024 黃頁(yè)88版權(quán)所有 京ICP備2023012932號(hào)-1 │ 京公網(wǎng)安備 11010802023561號(hào) 京ICP證100626
內(nèi)容均來(lái)源于網(wǎng)絡(luò),錯(cuò)誤糾正或刪除請(qǐng)發(fā)郵件,收件郵箱kefu@huangye88.com