chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

觀察AI如何找到出口 強(qiáng)化游戲體驗(yàn)

ouxn_HW_Digital ? 來源:華為開發(fā)者社區(qū) ? 作者:華為開發(fā)者社區(qū) ? 2021-08-24 09:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作為一名快樂的肥宅,玩游戲是居家必備,無論是王者榮耀、吃雞、原神這些大熱游戲,還是跳一跳、合成大西瓜、2048、這些風(fēng)靡一時(shí)得小游戲,咱都有涉及。但是為了成為一個(gè)“頭號(hào)玩家”,我總是瘋狂的去個(gè)各大社區(qū)、網(wǎng)站尋找各種攻略,跟著攻略成長(zhǎng),我時(shí)常在想,什么時(shí)候俺才能成為一代攻略大神啊,讓大家學(xué)習(xí)我的技術(shù),豈不是很刺激!

靈光一閃,畢竟我是個(gè)有點(diǎn)小技術(shù)的肥宅,曾經(jīng)也癡迷過deepmind,跑過AlphaGo,這不得訓(xùn)練一個(gè)AI玩一玩。

強(qiáng)化學(xué)習(xí)訓(xùn)練2048游戲,

觀察AI如何找到出口?

既然要練手,那就先從2048這種簡(jiǎn)單,不考驗(yàn)操作,純策略的游戲入手吧。在網(wǎng)上搜羅了一番,果然讓我找到了開源的2048游戲環(huán)境,GitHub地址:

https://github.com/rgal/gym-2048。

下一步就是把這個(gè)算法和強(qiáng)化學(xué)習(xí)結(jié)合了。

算法部分很簡(jiǎn)單,目前我才用的是最傳統(tǒng)的DQN,10分鐘就可以達(dá)到一個(gè)還可以的模型效果。如果小伙伴們有想法,可以試試RainBow,PPO,A2C,SAC這類算法,相信會(huì)獲得更佳的效果。

我開發(fā)這個(gè)模型,用的是來自華為云的ModelArts(它是一個(gè)在線、開箱即用的AI平臺(tái),還有免費(fèi)的GPU算力,每天不限次數(shù)使用,不要太爽?。?,所以代碼是在ipynb中跑的。

整體步驟大概可以分為3步:

1.創(chuàng)建游戲環(huán)境

2.創(chuàng)建DQN算法

def learn(self, buffer): # 當(dāng)replaybuffer中存儲(chǔ)的數(shù)據(jù)大于batchsize時(shí),從中隨機(jī)采樣一個(gè)batch的數(shù)據(jù)學(xué)習(xí) if buffer.size 》=self.args.batch_size: # 更新target_model的參數(shù) if self.learn_step_counter %args.target_update_freq == 0: self.target_model.load_state_dict(self.behaviour_model.state_dict()) self.learn_step_counter += 1 # 從replaybuffer中隨機(jī)采樣一個(gè)五元組(當(dāng)前觀測(cè)值,動(dòng)作,下一個(gè)觀測(cè)值,是否一局結(jié)束,獎(jiǎng)勵(lì)值) s1, a, s2, done, r =buffer.get_sample(self.args.batch_size) s1 =torch.FloatTensor(s1).to(device) s2 = torch.FloatTensor(s2).to(device) r = torch.FloatTensor(r).to(device) a = torch.LongTensor(a).to(device) if args.use_nature_dqn: q =self.target_model(s2).detach() else: q = self.behaviour_model(s2) # 每個(gè)動(dòng)作的q值=r+gamma*(1-0或1)*q_max target_q = r +torch.FloatTensor(args.gamma * (1 - done)).to(device) * q.max(1)[0] target_q =target_q.view(args.batch_size, 1) eval_q = self.behaviour_model(s1).gather(1,torch.reshape(a, shape=(a.size()[0], -1))) # 計(jì)算損失函數(shù) loss = self.criterion(eval_q,target_q) self.optimizer.zero_grad() loss.backward() self.optimizer.step() def get_action(self, state, explore=True): # 判斷是否探索,如果探索,則采用貪婪探索策略決定行為 if explore: if np.random.uniform() 》=args.epsilon: action = randint(0,self.action_dim - 1) else: # Choose the best action accordingto the network. q =self.behaviour_model(torch.FloatTensor(state).to(device)) m, index = torch.max(q, 1) action =index.data.cpu().numpy()[0] else: q = self.behaviour_model(torch.FloatTensor(state).to(device)) m, index = torch.max(q, 1) action =index.data.cpu().numpy()[0] return action classReplayBuffer: def __init__(self, buffer_size, obs_space): self.s1 = np.zeros(obs_space, dtype=np.float32) self.s2 = np.zeros(obs_space,dtype=np.float32) self.a = np.zeros(buffer_size,dtype=np.int32) self.r = np.zeros(buffer_size,dtype=np.float32) self.done = np.zeros(buffer_size,dtype=np.float32) # replaybuffer大小 self.buffer_size = buffer_size self.size = 0 self.pos = 0 # 不斷將數(shù)據(jù)存儲(chǔ)入buffer def add_transition(self, s1, action, s2,done, reward): self.s1[self.pos] = s1 self.a[self.pos] = action if not done: self.s2[self.pos] = s2 self.done[self.pos] = done self.r[self.pos] = reward self.pos = (self.pos + 1) %self.buffer_size self.size = min(self.size + 1,self.buffer_size) # 隨機(jī)采樣一個(gè)batchsize def get_sample(self, sample_size): i = sample(range(0, self.size), sample_size) return self.s1[i], self.a[i],self.s2[i], self.done[i], self.r[i]

3.創(chuàng)建網(wǎng)絡(luò)模型

此處我用的就是一個(gè)非常簡(jiǎn)單的三層卷積網(wǎng)絡(luò)

classNet(nn.Module): #obs是狀態(tài)空間輸入,available_actions_count為動(dòng)作輸出維度 def __init__(self, obs,available_actions_count): super(Net, self).__init__() self.conv1 = nn.Conv2d(obs, 128,kernel_size=2, stride=1) self.conv2 = nn.Conv2d(128, 64,kernel_size=2, stride=1) self.conv3 = nn.Conv2d(64, 16,kernel_size=2, stride=1) self.fc1 = nn.Linear(16,available_actions_count) self.relu = nn.ReLU(inplace=True) def forward(self, x): x = x.permute(0, 3, 1, 2) x = self.relu(self.conv1(x)) x = self.relu(self.conv2(x)) x = self.relu(self.conv3(x)) x = self.fc1(x.view(x.shape[0], -1)) return x

完成以上三步,就可以愉快的開始訓(xùn)練啦:

print(‘

training.。。’)begin_t= time.time()max_reward= 0fori_episode in range(args.epochs): # 每局開始,重置環(huán)境 s = env.reset() # 累計(jì)獎(jiǎng)勵(lì)值 ep_r = 0 while True: # 計(jì)算動(dòng)作 a = dqn.get_action(np.expand_dims(s,axis=0)) # 執(zhí)行動(dòng)作 s_, r, done, info = env.step(a) # 存儲(chǔ)信息 memory.add_transition(s, a, s_, done,r) ep_r += r # 學(xué)習(xí)優(yōu)化過程 dqn.learn(memory) if done: print(‘Ep: ’, i_episode, ‘| Ep_r: ’, round(ep_r, 2)) if ep_r 》 max_reward: max_reward = ep_r print(“current_max_reward{}”.format(max_reward)) # 保存模型 torch.save(dqn.behaviour_model,“2048.pt”) break s = s_print(“finish!time cost is {}s”.format(time.time() - begin_t))

我只訓(xùn)練了10分鐘,在這個(gè)不能錯(cuò)步的嚴(yán)格環(huán)境下,推理時(shí)可以達(dá)到256分,如果采用更先進(jìn)算法,更長(zhǎng)的訓(xùn)練時(shí)間,2048不是夢(mèng)。

詳細(xì)代碼獲取方式:

通過此鏈接可直接在線運(yùn)行,或者下載

https://marketplace.huaweicloud.com/markets/aihub/notebook/detail/?id=3a11d09b-85f5-4ae4-b4a7-9b19be2b444d

這個(gè)技術(shù)來源是我在去年華為云AI全棧成長(zhǎng)計(jì)劃中接觸到的,據(jù)說今年華為云又開始了新一輪【AI實(shí)戰(zhàn)營(yíng)】,6大分類實(shí)戰(zhàn)營(yíng)Python、ModelArts、MindSpore AI框架、深度、強(qiáng)化、機(jī)器學(xué)習(xí),助我們成為“AI王者”!

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    37065

    瀏覽量

    290352
  • 強(qiáng)化學(xué)習(xí)

    關(guān)注

    4

    文章

    269

    瀏覽量

    11824
  • 華為云
    +關(guān)注

    關(guān)注

    3

    文章

    2797

    瀏覽量

    18942

原文標(biāo)題:游戲“外掛”?- AI生成游戲最強(qiáng)攻略

文章出處:【微信號(hào):HW-DigitalHome,微信公眾號(hào):華為數(shù)字家庭】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    科技云報(bào)到:找到真場(chǎng)景,抓住真需求,這樣的具身智能才是好AI

    科技云報(bào)到:找到真場(chǎng)景,抓住真需求,這樣的具身智能才是好AI
    的頭像 發(fā)表于 10-10 14:49 ?666次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的科學(xué)應(yīng)用

    和量子計(jì)算的兩項(xiàng)新興的技術(shù),將在生產(chǎn)假說方面發(fā)揮重要作用,從而改變科學(xué)發(fā)現(xiàn)的范式。 生成式AI: 2、窮舉搜索 3、分析排錯(cuò)與組合優(yōu)化 分析排錯(cuò)是生成假說的重要手段。強(qiáng)化學(xué)習(xí)也在優(yōu)化假說組合、尋找科學(xué)發(fā)現(xiàn)
    發(fā)表于 09-17 11:45

    AI Coding + TuyaOpen,1小時(shí)快速打造AI女友和2048游戲

    七夕快到了,涂鴉本次準(zhǔn)備教大家用AI給自己做個(gè)虛擬女友,它能根據(jù)對(duì)話情緒顯示不同表情;在你游戲癮上來的時(shí)候,還能秒變2048游戲機(jī),讓你一邊玩游戲,一邊和
    的頭像 發(fā)表于 08-21 18:53 ?852次閱讀
    <b class='flag-5'>AI</b> Coding + TuyaOpen,1小時(shí)快速打造<b class='flag-5'>AI</b>女友和2048<b class='flag-5'>游戲</b>

    AI開啟更逼真的游戲時(shí)代

    本文編譯自semiengineering神經(jīng)網(wǎng)絡(luò)負(fù)責(zé)圖形渲染,AI智能體指導(dǎo)玩法,而‘幻覺’則用于填補(bǔ)缺失的細(xì)節(jié),讓游戲世界更加完整。隨著處理性能和內(nèi)存的大幅提升,以及數(shù)據(jù)傳輸速度的顯著加快
    的頭像 發(fā)表于 08-20 11:22 ?768次閱讀
    <b class='flag-5'>AI</b>開啟更逼真的<b class='flag-5'>游戲</b>時(shí)代

    大家都在用什么AI軟件?有沒有好用的免費(fèi)的AI軟件推薦一下?

    大家都在用什么AI軟件?有沒有好用的免費(fèi)的AI軟件推薦一下?直接發(fā)個(gè)安裝包,謝謝。比如deepseek、Chatgpt、豆包、阿里AI、百度AI、騰訊
    發(fā)表于 07-09 18:30

    技嘉正式推出 RTX? 5060 Ti 和 5060 顯卡,先進(jìn)散熱方案提升游戲AI 體驗(yàn)

    ? 5060 系列顯卡,并將于 4 月 16 日起陸續(xù)上市。此系列產(chǎn)品專為主流游戲玩家、創(chuàng)作者與 AI 入門使用者設(shè)計(jì),通過升級(jí)版 WINDFORCE 散熱系統(tǒng),在性能與散熱效率間達(dá)到絕衡,帶來更流暢
    的頭像 發(fā)表于 04-16 10:07 ?613次閱讀

    韓國(guó)半導(dǎo)體對(duì)華出口暴跌 信息通信產(chǎn)業(yè)出口額減少31.8%

    據(jù)外媒《朝鮮日?qǐng)?bào)》報(bào)道稱,在2025年2月份韓國(guó)信息通信產(chǎn)業(yè)出口額創(chuàng)下了歷年同月第二高的好成績(jī);出口額達(dá)到167.1億美元,同比增長(zhǎng)了1.2%。但是對(duì)我國(guó)的出口減少31.8%。 而韓國(guó)對(duì)越南
    的頭像 發(fā)表于 03-18 15:26 ?831次閱讀

    AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》----- 學(xué)習(xí)如何開發(fā)視頻應(yīng)用

    上傳與視頻生成相關(guān)的知識(shí)庫文檔,以便AI助手能夠基于這些知識(shí)進(jìn)行回答和生成視頻。 在AI助手的配置中,找到與視頻生成相關(guān)的功能模塊。 根據(jù)需要選擇或上傳視頻生成模型,這些模型可以是語聚AI
    發(fā)表于 03-05 19:52

    聯(lián)發(fā)科技攜手Cocos共建端側(cè)生成式AI游戲開發(fā)生態(tài),推動(dòng)行業(yè)升級(jí)

    全球領(lǐng)先的半導(dǎo)體公司聯(lián)發(fā)科技與知名游戲引擎開發(fā)商Cocos正式宣布達(dá)成深度合作!這一合作將把聯(lián)發(fā)科技在端側(cè)生成式AI領(lǐng)域的尖端技術(shù),與Cocos在游戲開發(fā)領(lǐng)域的深厚積累深度結(jié)合,為開發(fā)者帶來更便
    的頭像 發(fā)表于 01-10 09:24 ?643次閱讀

    拜登擬在卸任前加強(qiáng)AI芯片出口管制

    拜登政府計(jì)劃在離任之際宣布對(duì)中國(guó)實(shí)施最廣泛的人工智能(AI)芯片出口管制,引發(fā)美國(guó)科技行業(yè)的廣泛批評(píng)。代表美國(guó)科技行業(yè)的貿(mào)易協(xié)會(huì)——美國(guó)信息技術(shù)產(chǎn)業(yè)理事會(huì)(ITI)7日敦促拜登政府不要在卸任前最后
    的頭像 發(fā)表于 01-09 17:27 ?549次閱讀

    韓國(guó)半導(dǎo)體出口動(dòng)態(tài):2024年對(duì)華出口下滑,對(duì)臺(tái)越出口增長(zhǎng)

    近日,最新發(fā)布的產(chǎn)業(yè)數(shù)據(jù)揭示了韓國(guó)半導(dǎo)體出口在2024年的新趨勢(shì)。據(jù)韓國(guó)產(chǎn)業(yè)通商資源部于1月5日公布的官方數(shù)據(jù)顯示,盡管整體半導(dǎo)體出口額實(shí)現(xiàn)了顯著增長(zhǎng),但出口市場(chǎng)的分布卻發(fā)生了顯著變化。 數(shù)據(jù)顯示
    的頭像 發(fā)表于 01-07 14:32 ?1053次閱讀

    巨人網(wǎng)絡(luò)發(fā)布“千影”大模型,加速“游戲+AI”布局

    近日,巨人網(wǎng)絡(luò)在2024年度中國(guó)游戲產(chǎn)業(yè)年會(huì)上,正式推出了名為“千影?QianYing”的有聲游戲生成大模型。這一創(chuàng)新舉措標(biāo)志著巨人網(wǎng)絡(luò)在“游戲+AI”賽道上的又一重要布局。 “千影
    的頭像 發(fā)表于 12-16 09:45 ?1810次閱讀

    行業(yè)首個(gè)芯片級(jí)游戲技術(shù),OPPO「風(fēng)馳游戲內(nèi)核」正式亮相一加游戲大會(huì)

    12月12日,一加游戲大會(huì)在中國(guó)深圳正式舉行。OPPO首席產(chǎn)品官劉作虎宣布,繼影像與AI后,游戲體驗(yàn)將成為OPPO性能賽道的戰(zhàn)略級(jí)方向,OPPO將著力打造行業(yè)第一的游戲體驗(yàn)。同時(shí),OP
    的頭像 發(fā)表于 12-13 10:20 ?862次閱讀
    行業(yè)首個(gè)芯片級(jí)<b class='flag-5'>游戲</b>技術(shù),OPPO「風(fēng)馳<b class='flag-5'>游戲</b>內(nèi)核」正式亮相一加<b class='flag-5'>游戲</b>大會(huì)

    如何使用 PyTorch 進(jìn)行強(qiáng)化學(xué)習(xí)

    的計(jì)算圖和自動(dòng)微分功能,非常適合實(shí)現(xiàn)復(fù)雜的強(qiáng)化學(xué)習(xí)算法。 1. 環(huán)境(Environment) 在強(qiáng)化學(xué)習(xí)中,環(huán)境是一個(gè)抽象的概念,它定義了智能體(agent)可以執(zhí)行的動(dòng)作(actions)、觀察
    的頭像 發(fā)表于 11-05 17:34 ?1295次閱讀