主頁(yè) > 知識(shí)庫(kù) > 英偉達(dá)打破實(shí)時(shí)對(duì)話AI的訓(xùn)練和推理用時(shí)記錄

英偉達(dá)打破實(shí)時(shí)對(duì)話AI的訓(xùn)練和推理用時(shí)記錄

熱門標(biāo)簽:制作彩鈴地圖標(biāo)注號(hào)碼標(biāo)記 系統(tǒng)外呼和群呼的區(qū)別 徐州語(yǔ)音電銷機(jī)器人供應(yīng)商 外呼線路投訴如何處理 鞏義電話自動(dòng)外呼系統(tǒng) 湖南電銷機(jī)器人公司 百度地圖標(biāo)注圖片變小 重慶打卡地圖標(biāo)注 語(yǔ)音電銷機(jī)器人怎么樣

英偉達(dá)今天宣布的最大成果包括:BERT訓(xùn)練用時(shí)打破記錄,進(jìn)入1小時(shí)關(guān)口。BERT是世界上最先進(jìn)的人工智能語(yǔ)言模型之一,也被廣泛認(rèn)為是自然語(yǔ)言處理(NLP)標(biāo)桿的先進(jìn)模型。

Nvidia的AI平臺(tái)僅僅需要53分鐘就能夠完成模型訓(xùn)練,經(jīng)過訓(xùn)練的模型在短短2毫秒多一點(diǎn)的時(shí)間里(10毫秒在業(yè)內(nèi)被認(rèn)為是高水平線)就能夠成功地做出推理(即利用通過訓(xùn)練學(xué)習(xí)到的能力得出結(jié)果)——又一個(gè)記錄。

(Nvidia DGX SuperPOD,圖自:英偉達(dá)開發(fā)者博客)

英偉達(dá)的這些突破不僅僅是吹噓的資本——這些進(jìn)步可為任何使用NLP對(duì)話式人工智能和GPU硬件的人提供切實(shí)的好處。

Nvidia在它的其中一個(gè)SuperPOD系統(tǒng)上打破了訓(xùn)練時(shí)間記錄,該SuperPOD系統(tǒng)由運(yùn)行1472個(gè)V100 GPU的92個(gè)Nvidia DGX-2H系統(tǒng)組成;在運(yùn)行Nvidia TensorRT的Nvidia T4 GPU上完成推理過程。

Nvidia TensorRT在性能上超出高度優(yōu)化的CPU許多個(gè)量級(jí)。不過,該公司將公開BERT訓(xùn)練代碼和經(jīng)過TensorRT優(yōu)化的BERT樣本,讓所有人都可以通過GitHub利用。

(viaNeowin)

除了這些里程碑以外,英偉達(dá)的研究部門還建立并訓(xùn)練了有史以來(lái)最大的一個(gè)基于“Transformer”的語(yǔ)言模型。

這也是BERT的技術(shù)基礎(chǔ)。該定制模型包含的參數(shù)多達(dá)83億個(gè),規(guī)模是當(dāng)前最大的核心BERT模型BERT-Large的24倍。

英偉達(dá)將這個(gè)模型命名為“Megatron”,它也對(duì)外提供了用于訓(xùn)練這個(gè)模型的PyTorch代碼,因而其他人能夠自行訓(xùn)練出類似的基于“Transformer”的大型語(yǔ)言模型。

標(biāo)簽:呂梁 北海 河南 金昌 金融 大理 山南 福州

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《英偉達(dá)打破實(shí)時(shí)對(duì)話AI的訓(xùn)練和推理用時(shí)記錄》,本文關(guān)鍵詞  英偉,達(dá),打破,實(shí)時(shí),對(duì)話,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《英偉達(dá)打破實(shí)時(shí)對(duì)話AI的訓(xùn)練和推理用時(shí)記錄》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于英偉達(dá)打破實(shí)時(shí)對(duì)話AI的訓(xùn)練和推理用時(shí)記錄的相關(guān)信息資訊供網(wǎng)民參考!
  • 收縮
    • 微信客服
    • 微信二維碼
    • 電話咨詢

    • 400-1100-266