亚洲av成人精品日韩一区,97久久久精品综合88久久,玩弄japan白嫩少妇hd,亚洲av片不卡无码久久,玩弄人妻少妇500系列

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟開(kāi)源“傻瓜式”類(lèi)ChatGPT模型訓(xùn)練工具

OSC開(kāi)源社區(qū) ? 來(lái)源:OSC開(kāi)源社區(qū) ? 2023-04-14 09:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在利用 OpenAI 的 GPT-4 為 Bing Chat、 Bing Image Creator、Microsoft 365 Copilot、Azure OpenAI Service 和 GitHub Copilot X 引入了類(lèi)似 ChatGPT 的功能后。微軟現(xiàn)又宣布推出 DeepSpeed-Chat,一種用于 RLHF 訓(xùn)練的低成本開(kāi)源解決方案,基于微軟開(kāi)源的深度學(xué)習(xí)優(yōu)化庫(kù) DeepSpeed;聲稱(chēng)即使是使用單個(gè) GPU,任何人也都可以創(chuàng)建高質(zhì)量的 ChatGPT 式模型。

該公司表示,盡管開(kāi)源社區(qū)付出了巨大的努力,但目前仍缺乏一個(gè)支持端到端的基于人工反饋機(jī)制的強(qiáng)化學(xué)習(xí)(RLHF)的規(guī)模化系統(tǒng),這使得訓(xùn)練強(qiáng)大的類(lèi) ChatGPT 模型十分困難。ChatGPT 模型的訓(xùn)練是基于 InstructGPT 論文中的 RLHF 方式,與常見(jiàn)的大語(yǔ)言模型的預(yù)訓(xùn)練和微調(diào)截然不同,使得現(xiàn)有深度學(xué)習(xí)系統(tǒng)在訓(xùn)練類(lèi) ChatGPT 模型時(shí)存在種種局限。因此,為了讓 ChatGPT 類(lèi)型的模型更容易被普通數(shù)據(jù)科學(xué)家和研究者使用,并使 RLHF 訓(xùn)練真正普及到 AI 社區(qū),他們發(fā)布了 DeepSpeed-Chat。

8e39ca58-d9e7-11ed-bfe3-dac502259ad0.png

DeepSpeed-Chat 具有以下三大核心功能:

簡(jiǎn)化 ChatGPT 類(lèi)型模型的訓(xùn)練和強(qiáng)化推理體驗(yàn):只需一個(gè)腳本即可實(shí)現(xiàn)多個(gè)訓(xùn)練步驟,包括使用 Huggingface 預(yù)訓(xùn)練的模型、使用 DeepSpeed-RLHF 系統(tǒng)運(yùn)行 InstructGPT 訓(xùn)練的所有三個(gè)步驟、甚至生成你自己的類(lèi) ChatGPT 模型。此外,還提供了一個(gè)易于使用的推理 API,用于用戶(hù)在模型訓(xùn)練后測(cè)試對(duì)話(huà)式交互。

DeepSpeed-RLHF 模塊:DeepSpeed-RLHF 復(fù)刻了 InstructGPT 論文中的訓(xùn)練模式,并確保包括 a) 監(jiān)督微調(diào)(SFT),b) 獎(jiǎng)勵(lì)模型微調(diào)和 c) 基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)(RLHF)在內(nèi)的三個(gè)步驟與其一一對(duì)應(yīng)。此外,還提供了數(shù)據(jù)抽象和混合功能,以支持用戶(hù)使用多個(gè)不同來(lái)源的數(shù)據(jù)源進(jìn)行訓(xùn)練。

DeepSpeed-RLHF 系統(tǒng):其將 DeepSpeed 的訓(xùn)練(training engine)和推理能力(inference engine) 整合到一個(gè)統(tǒng)一的混合引擎(DeepSpeed Hybrid Engine or DeepSpeed-HE)中用于 RLHF 訓(xùn)練。DeepSpeed-HE 能夠在 RLHF 中無(wú)縫地在推理和訓(xùn)練模式之間切換,使其能夠利用來(lái)自 DeepSpeed-Inference 的各種優(yōu)化,如張量并行計(jì)算和高性能 CUDA 算子進(jìn)行語(yǔ)言生成,同時(shí)對(duì)訓(xùn)練部分還能從 ZeRO- 和 LoRA-based 內(nèi)存優(yōu)化策略中受益。DeepSpeed-HE 還能夠自動(dòng)在 RLHF 的不同階段進(jìn)行智能的內(nèi)存管理和數(shù)據(jù)緩存。

文檔內(nèi)容指出,DeepSpeed Chat 與其他先進(jìn)方案相比的優(yōu)勢(shì)在于:效率和經(jīng)濟(jì)性方面比現(xiàn)有系統(tǒng)快 15 倍以上,在 Azure 云上只需 9 小時(shí)即可訓(xùn)練一個(gè) OPT-13B 模型,只需 18 小時(shí)既可訓(xùn)練 OPT-30B 模型,分別花費(fèi)不到 300 美元和 600 美元。

在速度和可擴(kuò)展性方面,即使是 13B 的模型也可以在 1.25 小時(shí)內(nèi)訓(xùn)練,龐大的 175B 模型可以在不到一天的時(shí)間內(nèi)使用 64 個(gè) GPU 集群進(jìn)行訓(xùn)練。在 RLHF 的可訪(fǎng)問(wèn)性和普及化方面,則可以在單個(gè) GPU 上訓(xùn)練超過(guò) 130 億參數(shù)的模型。此外還支持在相同的硬件上分別運(yùn)行 6.5B 和 50B 的模型,實(shí)現(xiàn)高達(dá) 7.5 倍的提升。

8e44b440-d9e7-11ed-bfe3-dac502259ad0.png

8e6634f8-d9e7-11ed-bfe3-dac502259ad0.png

8e7a9b3c-d9e7-11ed-bfe3-dac502259ad0.png

盡管近期關(guān)于對(duì) ChatGPT 類(lèi)大語(yǔ)言模型發(fā)展的反對(duì)和擔(dān)憂(yōu)之聲不斷,但微軟似乎仍在全力推進(jìn)其 AI 開(kāi)發(fā)。對(duì)于微軟的此次發(fā)布,前 Meta AI 專(zhuān)家 Elvis 也激動(dòng)地表示,DeepSpeed Chat 提供了 Alpaca 和 Vicuna 等所缺少的、一個(gè)端到端的 RLHF 管道來(lái)訓(xùn)練類(lèi)似 ChatGPT 的模型,解決的是成本和效率方面的挑戰(zhàn)。這是 “微軟令人印象深刻的開(kāi)源努力。..。.. 是一件大事”。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6685

    瀏覽量

    105752
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1589

    瀏覽量

    9100

原文標(biāo)題:微軟開(kāi)源“傻瓜式”類(lèi)ChatGPT模型訓(xùn)練工具,提速省錢(qián)15倍

文章出處:【微信號(hào):OSC開(kāi)源社區(qū),微信公眾號(hào):OSC開(kāi)源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    傻瓜式操作!燈具外殼氣密性檢測(cè)儀上手就會(huì)

    在燈具生產(chǎn)過(guò)程中,確保外殼的氣密性至關(guān)重要。而如今,有了先進(jìn)的燈具外殼氣密性檢測(cè)儀,檢測(cè)工作變得輕松便捷,真正實(shí)現(xiàn)了“傻瓜式操作”,讓你上手就會(huì)。首先,在開(kāi)始檢測(cè)前,只需將燈具外殼放置在檢測(cè)儀的特定
    的頭像 發(fā)表于 05-05 14:56 ?155次閱讀
    <b class='flag-5'>傻瓜式</b>操作!燈具外殼氣密性檢測(cè)儀上手就會(huì)

    如何高效訓(xùn)練AI模型?這些常用工具你必須知道!

    模型的發(fā)展同樣面臨瓶頸,訓(xùn)練所需的硬件資源日益增加,比如英偉達(dá)的芯片、電力等(這也可能是ChatGPT5遲遲沒(méi)有出來(lái)的原因)。業(yè)界有觀點(diǎn)認(rèn)為,在大多數(shù)情況下,并不需要全能的大模型,而
    的頭像 發(fā)表于 04-17 16:43 ?1699次閱讀
    如何高效<b class='flag-5'>訓(xùn)練</b>AI<b class='flag-5'>模型</b>?這些常用<b class='flag-5'>工具</b>你必須知道!

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    基石。 Neuron Studio打造全流程一站開(kāi)發(fā)體驗(yàn),為AI應(yīng)用開(kāi)發(fā)按下加速鍵 AI 應(yīng)用的開(kāi)發(fā)瓶頸,從來(lái)都不是“點(diǎn)的問(wèn)題”,而是“鏈的問(wèn)題”:開(kāi)發(fā)工具碎片化,調(diào)優(yōu)過(guò)程靠手動(dòng),單模型分析效率低
    發(fā)表于 04-13 19:52

    恩智浦eIQ Time Series Studio工具使用教程之模型訓(xùn)練

    大家好,eIQ Time SeriesStudio又和大家見(jiàn)面啦!本章為大家?guī)?lái)工具核心部分-模型訓(xùn)練。
    的頭像 發(fā)表于 03-25 15:25 ?942次閱讀
    恩智浦eIQ Time Series Studio<b class='flag-5'>工具</b>使用教程之<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>

    YOLOv5類(lèi)中rgb888p_size這個(gè)參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎?一致會(huì)達(dá)到更好的效果?

    YOLOv5類(lèi)中rgb888p_size這個(gè)參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎,一致會(huì)達(dá)到更好的效果
    發(fā)表于 03-11 08:12

    構(gòu)建開(kāi)源OpenVINO?工具套件后,模型優(yōu)化器位于何處呢?

    構(gòu)建開(kāi)源OpenVINO?工具套件后,模型優(yōu)化器位于何處?
    發(fā)表于 03-06 08:18

    模型訓(xùn)練:開(kāi)源數(shù)據(jù)與算法的機(jī)遇與挑戰(zhàn)分析

    進(jìn)行多方位的總結(jié)和梳理。 在第二章《TOP 101-2024 大模型觀點(diǎn)》中,蘇州盛派網(wǎng)絡(luò)科技有限公司創(chuàng)始人兼首席架構(gòu)師蘇震巍分析了大模型訓(xùn)練過(guò)程中開(kāi)源數(shù)據(jù)集和算法的重要性和影響,分析
    的頭像 發(fā)表于 02-20 10:40 ?617次閱讀
    大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>:<b class='flag-5'>開(kāi)源</b>數(shù)據(jù)與算法的機(jī)遇與挑戰(zhàn)分析

    【「大模型啟示錄」閱讀體驗(yàn)】+開(kāi)啟智能時(shí)代的新鑰匙

    ,NVDIA與微軟的競(jìng)爭(zhēng) 。計(jì)算能力的飛速提升是大模型得以興起的重要基石。GPU/TPU 等高性能計(jì)算設(shè)備的迅猛發(fā)展,宛如為大模型訓(xùn)練打造了一臺(tái)強(qiáng)大的引擎。它們能夠以極高的速度處理海
    發(fā)表于 12-24 13:10

    開(kāi)源AI模型庫(kù)是干嘛的

    開(kāi)源AI模型庫(kù)是指那些公開(kāi)源代碼、允許自由訪(fǎng)問(wèn)和使用的AI模型集合。這些模型通常經(jīng)過(guò)訓(xùn)練,能夠執(zhí)
    的頭像 發(fā)表于 12-14 10:33 ?787次閱讀

    微軟否認(rèn)使用用戶(hù)數(shù)據(jù)訓(xùn)練AI模型

    近日,微軟公司正式否認(rèn)了一項(xiàng)關(guān)于其使用Microsoft 365應(yīng)用程序中客戶(hù)數(shù)據(jù)來(lái)訓(xùn)練人工智能模型的指控。這一聲明旨在澄清近期在社交媒體上流傳的某些用戶(hù)的疑慮和誤解。 此前,部分用戶(hù)在社交媒體平臺(tái)
    的頭像 發(fā)表于 12-02 10:33 ?451次閱讀

    什么是大模型、大模型是怎么訓(xùn)練出來(lái)的及大模型作用

    ,基礎(chǔ)模型。 ? 大模型是一個(gè)簡(jiǎn)稱(chēng),完整的叫法,應(yīng)該是“人工智能預(yù)訓(xùn)練模型”。預(yù)訓(xùn)練,是一項(xiàng)技術(shù),我們后面再解釋。 ? 我們現(xiàn)在口頭上常說(shuō)
    的頭像 發(fā)表于 11-25 09:29 ?1.3w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓(xùn)練</b>出來(lái)的及大<b class='flag-5'>模型</b>作用

    如何在 PyTorch 中訓(xùn)練模型

    PyTorch 是一個(gè)流行的開(kāi)源機(jī)器學(xué)習(xí)庫(kù),廣泛用于計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理等領(lǐng)域。它提供了強(qiáng)大的計(jì)算圖功能和動(dòng)態(tài)圖特性,使得模型的構(gòu)建和調(diào)試變得更加靈活和直觀。 數(shù)據(jù)準(zhǔn)備 在訓(xùn)練模型
    的頭像 發(fā)表于 11-05 17:36 ?930次閱讀

    ChatGPT:怎樣打造智能客服體驗(yàn)的重要工具?

    ChatGPT作為智能對(duì)話(huà)生成模型,可以幫助打造智能客服體驗(yàn)的重要工具。以下是一些方法和步驟:1.數(shù)據(jù)收集和準(zhǔn)備:收集和整理與客服相關(guān)的數(shù)據(jù),包括常見(jiàn)問(wèn)題、回答示例、客戶(hù)對(duì)話(huà)記錄等。這將用于訓(xùn)
    的頭像 發(fā)表于 11-01 11:12 ?441次閱讀
    <b class='flag-5'>ChatGPT</b>:怎樣打造智能客服體驗(yàn)的重要<b class='flag-5'>工具</b>?

    如何評(píng)估 ChatGPT 輸出內(nèi)容的準(zhǔn)確性

    評(píng)估 ChatGPT 輸出內(nèi)容的準(zhǔn)確性是一個(gè)復(fù)雜的過(guò)程,因?yàn)樗婕暗蕉鄠€(gè)因素,包括但不限于數(shù)據(jù)的質(zhì)量和多樣性、模型訓(xùn)練、上下文的理解、以及輸出內(nèi)容的邏輯一致性。以下是一些評(píng)估 ChatGPT
    的頭像 發(fā)表于 10-25 17:48 ?1160次閱讀

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具
    的頭像 發(fā)表于 10-24 09:39 ?966次閱讀