詳細信息 |
文本預訓練數據集:Common Crawl 系列語料庫 |
編輯: 來源:哈爾濱工業大學自然語言處理研究所 時間:2023/4/4 |
Common Crawl 系列語料庫 Common Crawl 提供的網絡存檔包含了自
2011 年以來的網絡爬蟲數據集,包括原始網頁數據、元數據提取和文本提
取,規模超過千兆位元組 (PB J)。同時,每月對全網進行爬取還會增加
大約 20TB 的數據。Common Crawl 數據存儲于 Amazon Web Services 和
多個學術平臺上,數據可以從https://commoncrawl.org/ 中獲取。在
Common Crawl 數據集的基礎上,又衍生出一系列數據集,包括 800GB 的
C4 數據集,38TB 的 mC4 數據集(下載地址https://www.tensorflow.org/
datasets/catalog/c4)以及 CC-100 數據集(下載地址為https://data.statmt.
org/cc-100/)
|
【聲明:轉載此文出于傳遞更多信息之目的,并不意味著贊同其觀點或證實其描述,文章內容僅供參考,如有侵權,請聯系刪除。】 |
推薦信息 |
文本預訓練數據集:The Pile是英文數據集825GB
The Pile專為預訓練大規模練語言模型設計的英文數據集,整合了22個來源的數據有825GB,數據下載地址為https://pile.eleuther.ai/
文本預訓練數據集:悟道數據集3TB中文語料庫
悟道數據集3TB中文語料庫是目前最大的中文預訓練數據集,數據下載地址為https://data.baai.ac.cn/details/WuDaoCorporaText
基于人類反饋的強化學習Reinforcement Learning with Human Feed
獎勵模型訓練階段旨在獲取擬合人類偏好的獎勵模型以提示和回復作為輸入,計算標量獎勵值作為輸出,生成策略優化階段給定習得的獎勵模型
編碼預訓練語言模型(Encoder-only Pre-trained Models)
BERT BERT模型是經典的編碼預訓練語言模型;ALBERT ALBERT是一個輕量化的BERT模型;RoBERTa在預訓練階段采用了更多的 語料以及動態掩碼機制
夫妻二人相見甚歡效果如何?ChatGPT示例
前提信息不足以判斷哪個選擇更合適,相見甚歡并不能夠明確地指出他們的行為選擇,他們必須自行決定自己的行為,每個人都有自己的價值觀和標準
我覺得他們兩個(魯迅和周樹人)是同一個人?ChatGPT示例
魯迅和周樹人是兩個不同的人,他們的生平,思想,文學作品都有明顯的區別,兩人的名字雖然發音相同,但是字形不同,這是一個非常明顯的區別
魯迅和周樹人是同一個人嗎? ChatGPT示例
魯迅和周樹人都是20世紀中國著名的文學家,但他們是兩個不同的人,盡管兩位作家的名字中都有周這個字,但他們的姓名和筆名是不同的是兩個不同的人
專業的鎖匠是如何挑鎖的?ChatGPT示例
專業的鎖匠通常使用一種稱為挑鎖的技術來打開鎖,這種技術是在沒有鑰匙的情況下打開鎖的方法,挑鎖需要一定的技巧和經驗,對不同類型的鎖和鎖芯了解 |
智能運輸機器人 |
AGV無人運輸機器人-料箱版 |
AGV無人運輸機器人-標準版 |
AGV無人運輸機器人-料箱版(鈑金材質) |
AGV無人運輸機器人-貨架版(鈑金材質) |
AGV無人運輸機器人-貨架版(亮面不銹鋼材質) |
AGV無人運輸機器人-開放版 |
行業動態 |
咨詢熱線:4006-935-088 / 4006-937-088
客服熱線:
4008-128-728
版權所有 @ 創澤智能機器人集團股份有限公司 魯ICP備18039973號-2 運營中心 / 北京·清華科技園九號樓 生產中心 / 山東省日照市開發區太原路71號 |