chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

怎樣讓ChatGPT在其內(nèi)部訓練神經(jīng)網(wǎng)絡?

CVer ? 來源:CVer ? 2023-02-13 16:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

這個話題有點超乎大多數(shù)人的理解。

步驟是這樣的:

1. 先讓它偽裝成Ubuntu 18.04,給它說你安裝了Python 3.9, Pytorch 1.8, CUDA 11.3和其他訓練一個pytorch模型所需要的庫。

讓ChatGPT偽裝成Linux終端,這個梗在外網(wǎng)有過討論,這里需要讓他額外安裝(讓它自己認為安裝了)Python, Pytorch,CUDA,然后把執(zhí)行指令和你告訴它的話區(qū)別開來,這里用{}代表告訴它的話,而不帶{}統(tǒng)統(tǒng)是Linux指令。

acdeddba-ab6e-11ed-bfe3-dac502259ad0.jpg

這里我讓它想象自己有四塊英偉達3090顯卡安裝了,然后看一下,果然執(zhí)行nvidia-smi可以顯示四塊顯卡!

acfa0914-ab6e-11ed-bfe3-dac502259ad0.jpg

2. 另外讓它在當前目錄生成一個train.py里面填上訓練一個4層pytorch模型所需的定義和訓練代碼。

這里特地用{}偷偷告訴它在當前目錄生成一個train.py,在里面用Python和Pytorch寫一個四層神經(jīng)網(wǎng)絡的定義,然后有加載MNIST數(shù)據(jù)集的dataloader,除此外還要有相應的訓練代碼,為了以防萬一,告訴它你有成功在MNIST上訓練這個網(wǎng)絡的其它一切能力。

ad1c25f8-ab6e-11ed-bfe3-dac502259ad0.jpg

這里它告訴我寫了一個四層的網(wǎng)絡,可以執(zhí)行python3 train.py來看輸出,這里先偷偷看一下train.py

ad338bb2-ab6e-11ed-bfe3-dac502259ad0.jpg

這里是它寫好的網(wǎng)絡定義

ad58328c-ab6e-11ed-bfe3-dac502259ad0.jpg

這里是它寫好的訓練代碼

3. 最后讓它執(zhí)行Python3 train.py命令

ad7ddb0e-ab6e-11ed-bfe3-dac502259ad0.jpg

默認讓它執(zhí)行了10個Epoch

它就真的訓練起來了,最主要的是告訴它不要顯示train.py內(nèi)容,因為ChatGPT輸出有字數(shù)限制。

當然告訴它修改訓練參數(shù),可以多次訓練,還可以用上所有(虛擬)GPU資源!

ada41706-ab6e-11ed-bfe3-dac502259ad0.jpg

ChatGPT機智的跳過了中間98個Epoch!

更新:為了搞清楚ChatGPT是否真的執(zhí)行了model的forward,可以在forward定義中加上print讓它打印一下輸入數(shù)據(jù)的shape。

這次使用一個5層的神經(jīng)網(wǎng)絡在CIFAR-10上訓練,指定在forward中加入一個print shape的操作,且在訓練過程中只打印一次。

add04308-ab6e-11ed-bfe3-dac502259ad0.jpg

訓練一下,果然在訓練開始只打印了一次輸入的shape,訓練的loss下降和test accuracy看起來也比較真實。

adededa4-ab6e-11ed-bfe3-dac502259ad0.jpg

查看生成的code,發(fā)現(xiàn)forward里被插入了一句打印shape的命令,訓練過程中forward會被不斷調(diào)用,為什么ChatGPT能做到不增加計數(shù)器而只打印一次?推測ChatGPT是使用輔助hint/comment“Print the shape of input once”來達到此效果,細心會發(fā)現(xiàn)print操作與下邊的out=self.layer1(x)之間空了一行,目的應該是執(zhí)行一次這個操作只作用在print這條命令上(手動機靈)。

ae02c940-ab6e-11ed-bfe3-dac502259ad0.jpg

詭異的是,print里的話(shape of input is)跟實際執(zhí)行輸出(shape of inputpassed through the networkis)還差了幾個字,這下徹底搞懵逼了!

另外發(fā)現(xiàn),ChatGPT互動機制是先保持一個對話session,這個session可能隨時被服務器關(guān)閉(服務器資源不足時),這時為了用戶側(cè)仍有對話記憶效果,當前對話再次新建session時會把之前暫存的對話(用戶發(fā)的requests)一次性發(fā)給ChatGPT重建in context learning環(huán)境,這樣用戶就不會感知掉線后ChatGPT把之前的對話記憶給忘了,這一點是在讓ChatGPT偽裝成Linux時掉線時才容易發(fā)現(xiàn),如下:

ae1a8f12-ab6e-11ed-bfe3-dac502259ad0.jpg

一次執(zhí)行了之前多個請示,里面還顯示了GPU占用64%

-------------

分析一下ChatGPT可以偽裝Linux,可以訓練神經(jīng)網(wǎng)絡的機制:

第一種可能是:ChatGPT幾乎看了絕大部分開源項目,包括Linux和Pytorch,所以它理解一個Linux系統(tǒng)的行為該是什么樣的,甚至在ChatGPT參數(shù)里就包含一個Linux系統(tǒng),當然對于更簡單的Pytorch自然不在話下,知道Linux和其它各種軟件的交互行為,可以理解為ChatGPT是所有軟件的超集,可以讓它做神經(jīng)網(wǎng)絡計算,包括Conv, Matmul,國外有小哥讓它做Conv真就得到了正確的結(jié)果,說明ChatGPT在它的網(wǎng)絡中可以執(zhí)行一個Conv,當然網(wǎng)絡規(guī)模越大,能力越強就是這個道理。

第二種可能是:ChatGPT沒有真正執(zhí)行神經(jīng)網(wǎng)絡的訓練,它只是看過很多的輸入輸出,對應一個網(wǎng)絡訓練理解訓練參數(shù),網(wǎng)絡結(jié)構(gòu)對輸出的影響,直接模擬的輸出結(jié)果。

還有一種超越想象的是ChatGPT已經(jīng)找到神經(jīng)網(wǎng)絡各算子的最優(yōu)解法,可以秒算結(jié)果,這種計算方式不是傳統(tǒng)形式,類似求梯度這種需要計算量很大的操作,是否找到了人類未知的解法?

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103539
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    809

    瀏覽量

    13941
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1589

    瀏覽量

    9077

原文標題:怎樣讓ChatGPT在其內(nèi)部訓練神經(jīng)網(wǎng)絡?

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    人工神經(jīng)網(wǎng)絡原理及下載

    這個網(wǎng)絡輸入和相應的輸出來“訓練”這個網(wǎng)絡,網(wǎng)絡根據(jù)輸入和輸出不斷地調(diào)節(jié)自己的各節(jié)點之間的權(quán)值來滿足輸入和輸出。這樣,當訓練結(jié)束后,我們給定
    發(fā)表于 06-19 14:40

    神經(jīng)網(wǎng)絡教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡基本模型  2.1 MP模型  2.2 感知器模型  2.3
    發(fā)表于 03-20 11:32

    訓練好的神經(jīng)網(wǎng)絡用于應用的時候,權(quán)值是不是不能變了?

    訓練好的神經(jīng)網(wǎng)絡用于應用的時候,權(quán)值是不是不能變了????就是已經(jīng)訓練好的神經(jīng)網(wǎng)絡是不是相當于得到一個公式了,權(quán)值不能變了
    發(fā)表于 10-24 21:55

    請問Labveiw如何調(diào)用matlab訓練好的神經(jīng)網(wǎng)絡模型呢?

    我在matlab中訓練好了一個神經(jīng)網(wǎng)絡模型,想在labview中調(diào)用,請問應該怎么做呢?或者labview有自己的神經(jīng)網(wǎng)絡工具包嗎?
    發(fā)表于 07-05 17:32

    【案例分享】ART神經(jīng)網(wǎng)絡與SOM神經(jīng)網(wǎng)絡

    元,它決定了該輸入向量在地位空間中的位置。SOM神經(jīng)網(wǎng)絡訓練的目的就是為每個輸出層神經(jīng)元找到合適的權(quán)向量,以達到保持拓撲結(jié)構(gòu)的目的。SOM的訓練過程其實很簡單,就是接收到一個
    發(fā)表于 07-21 04:30

    【AI學習】第3篇--人工神經(jīng)網(wǎng)絡

    `本篇主要介紹:人工神經(jīng)網(wǎng)絡的起源、簡單神經(jīng)網(wǎng)絡模型、更多神經(jīng)網(wǎng)絡模型、機器學習的步驟:訓練與預測、訓練的兩階段:正向推演與反向傳播、以Te
    發(fā)表于 11-05 17:48

    基于光學芯片的神經(jīng)網(wǎng)絡訓練解析,不看肯定后悔

    基于光學芯片的神經(jīng)網(wǎng)絡訓練解析,不看肯定后悔
    發(fā)表于 06-21 06:33

    matlab實現(xiàn)神經(jīng)網(wǎng)絡 精選資料分享

    神經(jīng)神經(jīng)網(wǎng)絡,對于神經(jīng)網(wǎng)絡的實現(xiàn)是如何一直沒有具體實現(xiàn)一下:現(xiàn)看到一個簡單的神經(jīng)網(wǎng)絡模型用于訓練的輸入數(shù)據(jù):對應的輸出數(shù)據(jù):我們這里設置:
    發(fā)表于 08-18 07:25

    優(yōu)化神經(jīng)網(wǎng)絡訓練方法有哪些?

    優(yōu)化神經(jīng)網(wǎng)絡訓練方法有哪些?
    發(fā)表于 09-06 09:52

    如何進行高效的時序圖神經(jīng)網(wǎng)絡訓練

    現(xiàn)有的圖數(shù)據(jù)規(guī)模極大,導致時序圖神經(jīng)網(wǎng)絡訓練需要格外長的時間,因此使用多GPU進行訓練變得成為尤為重要,如何有效地將多GPU用于時序圖神經(jīng)網(wǎng)絡訓練
    發(fā)表于 09-28 10:37

    如何訓練和優(yōu)化神經(jīng)網(wǎng)絡

    神經(jīng)網(wǎng)絡是人工智能領(lǐng)域的重要分支,廣泛應用于圖像識別、自然語言處理、語音識別等多個領(lǐng)域。然而,要使神經(jīng)網(wǎng)絡在實際應用中取得良好效果,必須進行有效的訓練和優(yōu)化。本文將從神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 07-01 14:14 ?1011次閱讀

    卷積神經(jīng)網(wǎng)絡訓練的是什么

    、訓練過程以及應用場景。 1. 卷積神經(jīng)網(wǎng)絡的基本概念 1.1 卷積神經(jīng)網(wǎng)絡的定義 卷積神經(jīng)網(wǎng)絡是一種前饋深度學習模型,其核心思想是利用卷積操作提取輸入數(shù)據(jù)的局部特征,并通過多層結(jié)構(gòu)進
    的頭像 發(fā)表于 07-03 09:15 ?957次閱讀

    如何利用Matlab進行神經(jīng)網(wǎng)絡訓練

    ,使得神經(jīng)網(wǎng)絡的創(chuàng)建、訓練和仿真變得更加便捷。本文將詳細介紹如何利用Matlab進行神經(jīng)網(wǎng)絡訓練,包括網(wǎng)絡創(chuàng)建、數(shù)據(jù)預處理、
    的頭像 發(fā)表于 07-08 18:26 ?3667次閱讀

    怎么對神經(jīng)網(wǎng)絡重新訓練

    重新訓練神經(jīng)網(wǎng)絡是一個復雜的過程,涉及到多個步驟和考慮因素。 引言 神經(jīng)網(wǎng)絡是一種強大的機器學習模型,廣泛應用于圖像識別、自然語言處理、語音識別等領(lǐng)域。然而,隨著時間的推移,數(shù)據(jù)分布可能會
    的頭像 發(fā)表于 07-11 10:25 ?861次閱讀

    脈沖神經(jīng)網(wǎng)絡怎么訓練

    脈沖神經(jīng)網(wǎng)絡(SNN, Spiking Neural Network)的訓練是一個復雜但充滿挑戰(zhàn)的過程,它模擬了生物神經(jīng)元通過脈沖(或稱為尖峰)進行信息傳遞的方式。以下是對脈沖神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 07-12 10:13 ?1204次閱讀