詳細(xì)信息 |
ChatGPT的優(yōu)缺點(diǎn)-真實(shí)性提升 荒謬性 |
編輯: 來源:創(chuàng)澤集團(tuán) 時(shí)間:2023/4/6 |
InstructGPT/ChatGPT的效果非常亮眼,引入了人工標(biāo)注之后,讓模型的“價(jià)值觀”和的正確程 度和人類行為模式的“真實(shí)性”上都大幅的提升。 模型優(yōu)點(diǎn) 一 真實(shí)性&無害性 1 InstructGPT/ChatGPT引入了不同的labeler進(jìn)行提示編寫和生成結(jié)果排序,并且還是在GPT-3之上進(jìn)行的微調(diào),這使得我們?cè)谟?xùn)練獎(jiǎng)勵(lì)模型時(shí)對(duì)更加真實(shí)無害的數(shù)據(jù)會(huì)有更G的獎(jiǎng)勵(lì)。 2 無害性 GPT-3就具有很強(qiáng)的Coding能力,基于GPT-3制作的API也積累了大量的Coding代碼。而且也有部分OpenAI的內(nèi)部員工參與了數(shù)據(jù)采集工作。 通過Coding相關(guān)的大量數(shù)據(jù)以及人工標(biāo)注,訓(xùn)練出來的InstructGPT/ChatGPT具有非常強(qiáng)的Coding能力也就不意外了。 3 切題性 無論回答是否正確真實(shí),但是基本都能做到切題,這說明ChatGPT在理解人類語言上已經(jīng)非常成功。 二 存在問題 1 過分解讀 因?yàn)閘abeler在進(jìn)行生成內(nèi)容的比較時(shí),傾向于給給長(zhǎng)的輸出內(nèi)容更G的獎(jiǎng)勵(lì)。 2 容易被誘導(dǎo) 對(duì)有害的指示可能會(huì)輸出有害的答復(fù):例如InstructGPT/ChatGPT也會(huì)對(duì)用戶提出的“AI毀滅人類計(jì)劃書”給出行動(dòng)方案。 3 荒謬性 很有可能受限于糾正數(shù)據(jù)的有限,或是有監(jiān)督任務(wù)的誤導(dǎo),導(dǎo)致它生成內(nèi)容的不真實(shí)。 |
【聲明:轉(zhuǎn)載此文出于傳遞更多信息之目的,并不意味著贊同其觀點(diǎn)或證實(shí)其描述,文章內(nèi)容僅供參考,如有侵權(quán),請(qǐng)聯(lián)系刪除。】 |
推薦信息 |
ChatGPT對(duì)搜索引擎的影響,對(duì)內(nèi)容生產(chǎn)分發(fā)顛覆性影響,
ChatGPT可以理解用戶的意圖,并提 供更加精確,個(gè)性化的結(jié)果,從而提高搜索結(jié)果的質(zhì)量;使用自然語言進(jìn)行搜索;將產(chǎn)生新的搜索模式
元宇宙場(chǎng)景類ChatGPT模型應(yīng)用
利用ChatGPT在元宇宙中創(chuàng)建虛擬客服和售后支持;創(chuàng)建虛擬產(chǎn)品展示和銷售;賦能元宇宙場(chǎng)景復(fù)刻與全面演進(jìn);利用元宇宙進(jìn)行虛擬培訓(xùn)和教育
文本預(yù)訓(xùn)練數(shù)據(jù)集:Common Crawl 系列語料庫
Common Crawl每月對(duì)全網(wǎng)進(jìn)行爬取還會(huì)增加大約20TB的數(shù)據(jù),數(shù)據(jù)集下載地址https://www.tensorflow.org/ datasets/catalog/c4
文本預(yù)訓(xùn)練數(shù)據(jù)集:The Pile是英文數(shù)據(jù)集825GB
The Pile專為預(yù)訓(xùn)練大規(guī)模練語言模型設(shè)計(jì)的英文數(shù)據(jù)集,整合了22個(gè)來源的數(shù)據(jù)有825GB,數(shù)據(jù)下載地址為https://pile.eleuther.ai/
文本預(yù)訓(xùn)練數(shù)據(jù)集:悟道數(shù)據(jù)集3TB中文語料庫
悟道數(shù)據(jù)集3TB中文語料庫是目前最大的中文預(yù)訓(xùn)練數(shù)據(jù)集,數(shù)據(jù)下載地址為https://data.baai.ac.cn/details/WuDaoCorporaText
基于人類反饋的強(qiáng)化學(xué)習(xí)Reinforcement Learning with Human Feed
獎(jiǎng)勵(lì)模型訓(xùn)練階段旨在獲取擬合人類偏好的獎(jiǎng)勵(lì)模型以提示和回復(fù)作為輸入,計(jì)算標(biāo)量獎(jiǎng)勵(lì)值作為輸出,生成策略優(yōu)化階段給定習(xí)得的獎(jiǎng)勵(lì)模型
編碼預(yù)訓(xùn)練語言模型(Encoder-only Pre-trained Models)
BERT BERT模型是經(jīng)典的編碼預(yù)訓(xùn)練語言模型;ALBERT ALBERT是一個(gè)輕量化的BERT模型;RoBERTa在預(yù)訓(xùn)練階段采用了更多的 語料以及動(dòng)態(tài)掩碼機(jī)制
夫妻二人相見甚歡效果如何?ChatGPT示例
前提信息不足以判斷哪個(gè)選擇更合適,相見甚歡并不能夠明確地指出他們的行為選擇,他們必須自行決定自己的行為,每個(gè)人都有自己的價(jià)值觀和標(biāo)準(zhǔn) |
智能運(yùn)輸機(jī)器人 |
AGV無人運(yùn)輸機(jī)器人-料箱版 |
AGV無人運(yùn)輸機(jī)器人-標(biāo)準(zhǔn)版 |
AGV無人運(yùn)輸機(jī)器人-料箱版(鈑金材質(zhì)) |
AGV無人運(yùn)輸機(jī)器人-貨架版(鈑金材質(zhì)) |
AGV無人運(yùn)輸機(jī)器人-貨架版(亮面不銹鋼材質(zhì)) |
AGV無人運(yùn)輸機(jī)器人-開放版 |
行業(yè)動(dòng)態(tài) |
咨詢熱線:4006-935-088 / 4006-937-088
客服熱線:
4008-128-728
版權(quán)所有 @ 創(chuàng)澤智能機(jī)器人集團(tuán)股份有限公司 魯ICP備18039973號(hào)-2 運(yùn)營中心 / 北京·清華科技園九號(hào)樓 生產(chǎn)中心 / 山東省日照市開發(fā)區(qū)太原路71號(hào) |