粉嫩av在线观看|无码视频网站亚洲理论在线|Av在线中文亚洲|99这里都是精品|国产精品成人女人久久|欧美日韩高清免费播放一区二区三区|久久久久久桃九九九国产精品|成人一级黄片国外超级A片|欧美特级毛片国产精品H视频|看特黄A级片亚洲另类区

大數(shù)跨境

為什么大家覺得chatgpt4o跟用其他應用接入的gpt4o用起來有點差別?2年AI開發(fā)經(jīng)驗積累純干貨-開發(fā)者必看!

為什么大家覺得chatgpt4o跟用其他應用接入的gpt4o用起來有點差別?2年AI開發(fā)經(jīng)驗積累純干貨-開發(fā)者必看! 默拉智能AI系統(tǒng)
2024-11-07
8173
導讀:為什么大家覺得chatgpt4o跟用其他應用接入的gpt4o用起來有點差別?2年AI開發(fā)經(jīng)驗積累純干貨-開發(fā)者必看!

先說結論:

input的token(1000token=750字母,500漢字),output 的token,Temperature,前置提示詞,敏感詞,大模型的類型因素造成的。

應用開發(fā)者調用gpt4o-128k能調的參數(shù):input的token長度(6條,10條,20條,30條對話不等),output 的token (4000token封頂,國內有8000token的output長度),Temperature(0.1-1之間),前置提示詞,敏感詞過濾。

以上的參數(shù)直接影響大模型的輸出效果!

大家都知道gpt4o上下文長度是128K。像我們做開發(fā)的時候,我們?yōu)榱私档湍莻€輸入的消耗,然后因為你知道它輸入和輸出都是要消耗token的嘛,然后我們會設置輸入的對話不會超過六條對話,相當于他的記憶其實沒有128K那么長。這個會影響輸出效果!這就是為什么大家覺得,我們開發(fā)出來的應用跟原生的GPT啊,沒有拆GPT那么記憶長度長,是因為我們人為的為了控制它的輸入的消耗,所以我們就把它截斷了嘛,我們就只有些是10條,有些是6條,有些是20條,有些是15條,就是看每一家公司應用開發(fā)的時候,這個控制是控制在哪一個位置。 

它理論上是128K,但是我們不可能給他全部打開,一旦打開的話,那它的消耗是驚人的,就是他每增加一次對話,可能消耗就是2美金,3美金,甚至是到5美金。這種消耗啊,那我們從AP的角度開發(fā),第一是企業(yè)端,他會受不了,企業(yè)用戶他會受不了,第二個就是我們的應用開發(fā)者,對吧,我們的賬單也會受不了。所以就是從我們的使用場景來說,我們就是必須要限制。我們要input input的長度,正常input的話,最高就是我們不會超過2萬token啊,就是這個原因。

那你說我們有沒有辦法去解決這個問題,就是input超過2萬token讓input的消耗不那么貴?我們有另外一種方案,我們叫rag啊,通過rag嵌入知識庫的方式,因為嵌入的費用是非常低的。那這個時候啊,我們input可以一直維持在4K以內或者是2K以內啊,但是我的這個時候AI應用依然很智能,我就是通過rag嵌入了知識庫,因為嵌入很便宜啊,就是我能夠大大降低我input的費用啊,這個也就是我們叫kimi嘛,對kimi的那個200w token上文的那個技術來源其實對吧都是用rag的方案去做的。 

輸出的溫度的話我們叫temperature,它有一個值叫溫度值,溫度值像官方的話它可能默認設的。溫度值是1所以呀,你會覺得它輸出的內容會比較有溫度嘛,我們默認設置是0.6或者0.8啊,就會輸出的內容會稍微冷一點吧,但是說輸出內容其實是一樣的啊,只是說一個溫度高一點,一個溫度低一點。對你應該有一個比較冷冰冰的一種說話語氣。另外一種是啊,比較熱情的說話語氣啊,就是這個差別。 

應用開發(fā)者怎么去調這些參數(shù)的問題了,因為你像紐恰GPT官方的它這些參數(shù)。他有可能都給你調到最最優(yōu)的,或者是給你拉到拉滿的狀態(tài),但是我們應用開發(fā)者可能會啊,在這些參數(shù)上調教啊,或者是對吧,比如max output token的數(shù)量設置成2000token,也給你限制了啊,就導致了你覺得輸出長度不夠長。

最終的還有一個就是敏感詞過濾,敏感詞過濾會極大的削弱大模型的輸出的數(shù)量,輸出內容的質量。因為在國內開發(fā)嘛,你知道對很多應用他沒辦法,他必須要開敏感詞啊。

為什么大家覺得chatgpt4o跟用其他應用接入的gpt4o用起來有點差別?2年AI開發(fā)經(jīng)驗積累純干貨-開發(fā)者必看!

最后是大模型的型號的區(qū)別:gpt4o為例

常用的熱門4o模型有:

gpt-4o 最早的4o模型

gpt-4o-2024-05-13 最熱門的4o模型

gpt-4o-2024-08-06 最便宜的4o模型

chatgpt-4o-latest chatgpt chatgpt官方用的模型?

調用不同的模型。效果會稍微有點差別!但是同樣是4o,能力相差不大!

不同模型的價格對比和說明:

o1-preview  提示:$15/M tokens補全:$60/M tokens 旨在解決跨領域難題的推理模型。o1-previe是我們針對需要廣泛常識的復雜任務的新推理模型。該模型具有 128K 的上下文和 2023 年10 月的知識截止值。
o1-mini  提示:$3/M tokens補全:$12/M tokens o1-mini 是一種快速、經(jīng)濟高效的推理模型,專為編碼、數(shù)學和科學使用案例量身定制。該模型具有 128K 的上下文和 2023 年 10 月的知識截止值。
gpt-4o-2024-08-06 提示:$2.5/M tokens補全:$10/M tokens gpt-4o-2024-08-06。該模型具有128K上下文,每次請求最多可輸出16K標記和 2023 年10 月的知識截止點,支持更嚴格的json格式化輸出,推理能力更強。1106系列以上模型支持tool_calls和function_call
gpt-4o 提示:$5/M tokens補全:$15/M tokens GPT-4o(指向gpt-40-2024-05-13)是OpenAl最先進的多模式模型,比 GPT-4Turbo 更快、更便宜,具有更強的視覺功能該模型具有 128K 上下文和 2023 年 10 月的知識截止點。1106系列以上模型支持tool_calls和function_call
gpt-4o-mini-2024-07-18  提示:$0.15/M tokens補全:$0.6/M tokens gpt-4o-mini-2024-07-18 GPT-40 Mini主打的就是便宜好用。該模型具有 128K 上下文,每次請求最多可輸出16K標記和 2023 年 10 月的知識截止點。1106系列以上模型支持tool calls和function call
gpt-4o-mini 提示:$0.15/M tokens補全:$0.6/M tokens 9pt-4o-mini(指向gpt-4o-mini-2024-07-18)GPT-40 Mini主打的就是便宜好用。該模型具有 128K上下文,每次請求最多可輸出16K標記和 2023 年 10 月的知識截止點。1106系列以上模型支持toolcalls和function call

 

最后如果覺得4o效果很差,那就是應用開發(fā)者給了假的4o模型,或者是api平臺做了4o轉國產(chǎn)模型?(api的模型重定向)。

這個時候,懂行的立馬就能感覺到差別,是不是4o的能力,就像一個有經(jīng)驗的人事經(jīng)理,一眼就能看出來這個人的學歷和水平。

為什么大家覺得chatgpt4o跟用其他應用接入的gpt4o用起來有點差別?2年AI開發(fā)經(jīng)驗積累純干貨-開發(fā)者必看!

最后結論:只要應用開發(fā)者使用的是最新的4o模型,沒有添油加醋的增加敏感詞過濾或者前提提示詞,那么模型輸出的邏輯和效果都差不多。

至于語氣的細微差別或者輸出數(shù)量的多少,那都不是判斷內容質量的關鍵。內容準確,邏輯清晰,錯誤少,才是判斷內容質量的關鍵因素!

仁者見仁智者見智。畢竟老子的《道德經(jīng)》5000字,《皇帝陰符經(jīng)》300字,都解釋了同一個道理。

 

【聲明】內容源于網(wǎng)絡
默拉智能AI系統(tǒng)
默拉智能基于GPT4.0+midjourney+suno+pika runwayAI視頻開發(fā)出來的AI-CMS系統(tǒng)!讓你輕松駕馭最新Al。我們希望用AIGC助力整個行業(yè),把人力資源從重復的勞動中解放出來,解放腦力,代替人類思考,讓人類去做有更高附加值的創(chuàng)作,為企業(yè)真正的降本增效。
內容 116
粉絲 1
默拉智能AI系統(tǒng) 默拉智能基于GPT4.0+midjourney+suno+pika runwayAI視頻開發(fā)出來的AI-CMS系統(tǒng)!讓你輕松駕馭最新Al。我們希望用AIGC助力整個行業(yè),把人力資源從重復的勞動中解放出來,解放腦力,代替人類思考,讓人類去做有更高附加值的創(chuàng)作,為企業(yè)真正的降本增效。
總閱讀289.9k
粉絲1
內容116