chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型顛覆研發(fā)模式:字節(jié)跳動(dòng)是如何在單元測(cè)試中落地大模型的?

jf_WZTOguxH ? 來(lái)源:AI前線(xiàn) ? 2023-08-16 14:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大模型的出現(xiàn)引發(fā)了一場(chǎng)軟件工程革命,它根本性地改變了軟件開(kāi)發(fā)的流程和方式。當(dāng)下,越來(lái)越多的企業(yè)開(kāi)始在實(shí)際的研發(fā)工作中,結(jié)合大模型增強(qiáng)軟件開(kāi)發(fā)在設(shè)計(jì)、需求、測(cè)試、發(fā)布和運(yùn)維等各個(gè)環(huán)節(jié)中的能力,提高質(zhì)量和效率。

在接受 InfoQ 采訪時(shí),字節(jié)跳動(dòng)算法專(zhuān)家張樹(shù)波表示,大語(yǔ)言模型是一項(xiàng)人工智能基礎(chǔ)技術(shù)的突破,必然會(huì)帶來(lái)多個(gè)行業(yè)的變革。2023 年初,字節(jié)跳動(dòng)智能服務(wù)團(tuán)隊(duì)開(kāi)始啟動(dòng)大模型 X 智能單測(cè)項(xiàng)目。目前,大模型生成單元測(cè)試已經(jīng)在實(shí)際業(yè)務(wù)中落地。

單元測(cè)試是保障項(xiàng)目可靠性的重要手段。傳統(tǒng)的智能單測(cè)生成依賴(lài)靜態(tài)分析、動(dòng)態(tài)分析等工具,對(duì)不同的語(yǔ)言需要重新適配。隨著模型參數(shù)規(guī)模的提升,模型的代碼理解、代碼生成能力也大幅提升,使用模型端到端的生成單元測(cè)試,可以低成本地將單元測(cè)試覆蓋到多種編程語(yǔ)言。然而大模型在單測(cè)生成任務(wù)上仍存在模型幻覺(jué)(隨機(jī)生成不存在變量名、方法名)和測(cè)試分支覆蓋不全的問(wèn)題。

為解決以上問(wèn)題,字節(jié)跳動(dòng)智能服務(wù)團(tuán)隊(duì)發(fā)現(xiàn)通過(guò)任務(wù)微調(diào)、強(qiáng)化學(xué)習(xí)等技術(shù)可以提升語(yǔ)言模型的單元測(cè)試生成語(yǔ)法正確率和分支覆蓋率。經(jīng)過(guò)測(cè)試,他們的基于 Bloom 70 億參數(shù)模型的生成效果不弱于通用版 ChatGPT 的水平,并且在低端顯卡上的推理時(shí)延只有 ChatGPT 的 25%。且目前大模型單元測(cè)試生成分支覆蓋率在實(shí)際項(xiàng)目中達(dá)到 56%,同時(shí)在抖音的 Android、iOS 雙端落地,問(wèn)題有效性達(dá)到 80%,修復(fù)率 65%。

在今年 9 月 3-5 日舉辦的 QCon 全球軟件開(kāi)發(fā)大會(huì)·北京站中,張樹(shù)波將把以上經(jīng)驗(yàn)分享給大家。張樹(shù)波碩士畢業(yè)于清華大學(xué),先后就職于 vivo、字節(jié)跳動(dòng),從事 NLP 算法多年,在智能單測(cè)、智能客服、語(yǔ)音助手等業(yè)務(wù)場(chǎng)景有豐富的落地經(jīng)驗(yàn)。

在大會(huì)開(kāi)始前,InfoQ 對(duì)張樹(shù)波進(jìn)行了專(zhuān)訪,探索字節(jié)跳動(dòng)是如何在單元測(cè)試中落地大模型的,以及大模型對(duì)軟件研發(fā)工作流的改變。以下為對(duì)話(huà)實(shí)錄,經(jīng)編輯。

InfoQ:您在今年 9?舉辦的 QCon 全球軟件開(kāi)發(fā)?會(huì)·北京站上的演講主題是《?模型助?智能單測(cè)?成》,為什么會(huì)選擇這?主題?

張樹(shù)波:2022 年底 OpenAI 發(fā)布 ChatGPT,其效果令人大為震撼,曾經(jīng)讓 NLPer 困擾的自然語(yǔ)言處理問(wèn)題,例如歧義、長(zhǎng)程依賴(lài)、知識(shí)缺失、推理能力不足等,都得到了很大程度的緩解和解決。大語(yǔ)言模型是一項(xiàng)人工智能基礎(chǔ)技術(shù)的突破,必然會(huì)帶來(lái)多個(gè)行業(yè)的變革。2023 年初,我們字節(jié)跳動(dòng)智能服務(wù)團(tuán)隊(duì)啟動(dòng)了大模型 X 智能單測(cè)項(xiàng)目,探索至今,大模型生成單元測(cè)試已經(jīng)在實(shí)際業(yè)務(wù)中落地。這其中我們總結(jié)出了一些經(jīng)驗(yàn),希望能夠幫助聽(tīng)眾。

InfoQ:對(duì)于這波?模型結(jié)合軟件開(kāi)發(fā)應(yīng)?熱潮,您觀察到哪些有趣的趨勢(shì)?

張樹(shù)波:大模型會(huì)讓開(kāi)發(fā)更輕松。大模型代碼生成會(huì)降低開(kāi)發(fā)者編寫(xiě)重復(fù)性代碼,但是不意味者開(kāi)發(fā)門(mén)檻降低,開(kāi)發(fā)者需要具備辨識(shí)模型生成是否正確,以及對(duì)最終上線(xiàn)負(fù)責(zé)。當(dāng)前大模型生成的代碼還不能保證絕對(duì)正確,甚至有些隱蔽的錯(cuò)誤,不容易被新手開(kāi)發(fā)者發(fā)現(xiàn)。從這個(gè)角度來(lái)看,大模型對(duì)有經(jīng)驗(yàn)的開(kāi)發(fā)者助益更大。

大模型如何改變傳統(tǒng)單測(cè)生成? InfoQ:在?模型出現(xiàn)以前,傳統(tǒng)的智能單測(cè)?成?法是什么樣的?存在哪些痛點(diǎn)?

張樹(shù)波:傳統(tǒng)的單測(cè)生成應(yīng)用最廣、最成功的是基于搜索的單測(cè)生成,也就是很多場(chǎng)景都會(huì)提到的(search based software testing - SBST),其中集成了非常多的程序分析技術(shù),包括各種各樣的靜態(tài)分析、動(dòng)態(tài)分析以及遺傳算法甚至 constrain solving。但因?yàn)檎Z(yǔ)言的特性不同,同樣的分析技術(shù)對(duì)不同的語(yǔ)言是需要重新實(shí)現(xiàn)的。雖然測(cè)試生成的原理在不同語(yǔ)言是通用的,但是強(qiáng)依賴(lài)于軟件分析技術(shù),那么每新增一種新的語(yǔ)言支持,就需要適配一整套分析技術(shù),成本較大。另外,精確的分析可能會(huì)依賴(lài)于編譯產(chǎn)物,例如動(dòng)態(tài)分析,因此要求目標(biāo)項(xiàng)目進(jìn)行編譯后才能進(jìn)行測(cè)試生成,提高了生成所需的前置準(zhǔn)備要求。

而基于模型的生成可以直接分析源碼,無(wú)需編譯,降低生成的要求,大大擴(kuò)大適應(yīng)場(chǎng)景。近幾年來(lái)應(yīng)用 repository mining 提升 test generation 甚至 program repair 效果的工作也在逐漸的增加,說(shuō)明 NLP 中的一些假設(shè)在軟工領(lǐng)域也是成立的,比如現(xiàn)有 repository 中包含了 test generation 甚至 program repair 中需要的知識(shí),大家也做了相應(yīng)的嘗試,學(xué)習(xí)歷史知識(shí)并應(yīng)用到新的任務(wù)中在軟工領(lǐng)域也是大家認(rèn)可的思路。

InfoQ:應(yīng)??模型后,智能單測(cè)?成?法發(fā)?了哪些變化?實(shí)際效果如何?能完全替代傳統(tǒng)的智能單測(cè)?成?法嗎?

張樹(shù)波:這里先補(bǔ)充一個(gè)業(yè)務(wù)應(yīng)用背景,智能單測(cè)一般在開(kāi)發(fā)者代碼編寫(xiě)過(guò)程中 (IDE) 和在代碼提交后 (CI) 發(fā)揮作用,前者要求可讀性、正確性,后者要求正確性、覆蓋率指標(biāo)。應(yīng)用大模型后,智能單測(cè)由傳統(tǒng)模版生成 + 遺傳算法的方式向端到端的模型生成方式演化。傳統(tǒng)單測(cè)在正確性和覆蓋率指標(biāo)上仍然比大模型生成的要高,在 CI 過(guò)程中,仍占主導(dǎo)位置,大模型在其中作為補(bǔ)充。而在 IDE 中,大模型生成單測(cè)的可讀性更好,便于開(kāi)發(fā)者修改,因此在 IDE 中單測(cè)更傾向使用大模型生成的結(jié)果。

我們智能服務(wù)團(tuán)隊(duì)的主要基于 Bloom、starcoder 等開(kāi)源模型做了測(cè)試以及微調(diào),經(jīng)過(guò)測(cè)試,其中基于 Bloom 的 70 億參數(shù)模型的生成效果不弱于通用版 ChatGPT 的水平,并且在低端顯卡(A30)上的推理時(shí)延只有 ChatGPT 的 25%。目前,我們的大型模型單元測(cè)試生成分支覆蓋率在實(shí)際項(xiàng)目中達(dá)到 56%,同時(shí)在抖音的 Android、iOS 雙端落地, 問(wèn)題有效性達(dá)到 80%,修復(fù)率 65%。同時(shí)我們也正在試用火山方舟上大模型的單測(cè)生成能力,效果正在評(píng)估中。

整體來(lái)看,大模型仍有一定局限,發(fā)展有個(gè)過(guò)程,各有千秋,取長(zhǎng)補(bǔ)短,可以融合應(yīng)用 1+1>2,不同場(chǎng)景可以有不同的應(yīng)用方式。

InfoQ:?模型在智能單測(cè)?成中的應(yīng)?原理是什么?

張樹(shù)波:大模型單測(cè)生成屬于代碼生成、文本生成的范疇,旨在通過(guò)大模型完成端到端的單測(cè)代碼生成。大模型單測(cè)生成輸入是待測(cè)方法、以及上下文,輸出為單元測(cè)試函數(shù)。隨著模型規(guī)模的提升,模型的代碼理解、單測(cè)生成能力也大幅提升。

目前智能服務(wù)團(tuán)隊(duì)內(nèi)使用的大模型基座主要是開(kāi)源模型,例如 Bloom、Starcoder,基于以上大模型,我們對(duì)裸模型以及使用單測(cè)訓(xùn)練數(shù)據(jù)微調(diào)之后模型,分別做了評(píng)估,當(dāng)前選擇了基于 Bloom7B 的微調(diào)模型落地。同時(shí)我們團(tuán)隊(duì)在 Java、Swift、Go 等多種編程語(yǔ)言的大模型落地計(jì)劃,廣泛收集了公開(kāi)數(shù)據(jù)集、業(yè)務(wù)數(shù)據(jù)集用于微調(diào)。

如何提升?模型單測(cè)?成準(zhǔn)確性? InfoQ:您提到?模型在單測(cè)?成任務(wù)上仍存在模型幻覺(jué)和測(cè)試分?覆蓋不全的問(wèn)題,對(duì)于這兩個(gè)問(wèn)題,字節(jié)有哪些解決思路?如何提升?模型單測(cè)?成準(zhǔn)確性?

張樹(shù)波:當(dāng)前我們使用單測(cè)生成任務(wù)數(shù)據(jù)在大模型做了微調(diào),讓大模型專(zhuān)注單測(cè)生成。實(shí)驗(yàn)表明,通過(guò)構(gòu)建高質(zhì)量的訓(xùn)練數(shù)據(jù),可以顯著提升大模型單測(cè)分支覆蓋率指標(biāo)?;谖⒄{(diào)后的大模型,通過(guò)引入以編譯器、靜態(tài)分析結(jié)果作為獎(jiǎng)勵(lì)的強(qiáng)化學(xué)習(xí),可以進(jìn)一步緩解模型幻覺(jué)的問(wèn)題。微調(diào)和強(qiáng)化學(xué)習(xí)的基本假設(shè)是模型在預(yù)訓(xùn)練階段學(xué)習(xí)到了代碼相關(guān)知識(shí),通過(guò)微調(diào)或強(qiáng)化學(xué)習(xí),可以激發(fā)模型的潛力,或讓模型跟隨特定偏好,輸出更好結(jié)果。如果預(yù)訓(xùn)練階段沒(méi)有過(guò)多的對(duì)應(yīng)任務(wù)領(lǐng)域的語(yǔ)料,通過(guò)繼續(xù)預(yù)訓(xùn)練的方式可以讓模型適配這一領(lǐng)域,然后進(jìn)行后面的微調(diào)和強(qiáng)化學(xué)習(xí),可以取得更好的結(jié)果。

除了以上方式,另外一種簡(jiǎn)單粗暴的方式是提升模型規(guī)模,規(guī)模越大,能力上限越高。

InfoQ:除此之外,?模型在單測(cè)?成中還有那些局限性?是否會(huì)遇到數(shù)據(jù)質(zhì)量問(wèn)題?是否需要考慮隱私和安全問(wèn)題?有哪些措施可以確保數(shù)據(jù)安全?

張樹(shù)波:大模型在單測(cè)生成瓶頸在能給大模型提供多少背景信息,如果是一個(gè)簡(jiǎn)單的函數(shù),沒(méi)有涉及任何其他自定義的類(lèi),大模型未來(lái)可以完美解決,但是涉及其他的類(lèi)的,甚至是多層的,外層信息稀疏性,會(huì)提高輸入的上下文輸入長(zhǎng)度,在實(shí)際落地中會(huì)在輸入長(zhǎng)度和生成效果之間做一個(gè)取舍。微調(diào)數(shù)據(jù)質(zhì)量非常重要,決定模型是否可用的關(guān)鍵因素。關(guān)于數(shù)據(jù)安全問(wèn)題,火山方舟提出了全方位的大模型安全架構(gòu),為模型訓(xùn)練方和使用者提供安全可信環(huán)境。

InfoQ:在?模型助?智能單測(cè)?成的過(guò)程中,字節(jié)團(tuán)隊(duì)內(nèi)還積累了哪些經(jīng)驗(yàn)和教訓(xùn)?對(duì)于希望在項(xiàng)?中應(yīng)??模型進(jìn)?智能單測(cè)?成的團(tuán)隊(duì),您會(huì)給他們提供哪些建議?

張樹(shù)波: 不僅是在大模型助力智能單測(cè)生成這個(gè)方向,所有大模型 X 某某類(lèi)似的應(yīng)用落地都是一項(xiàng)系統(tǒng)工程。在大模型落地過(guò)程中,其他兄弟團(tuán)隊(duì)給予了大量的經(jīng)驗(yàn)和技術(shù)支持。

InfoQ:您認(rèn)為在?模型助?智能單測(cè)?成??,還有哪些需要進(jìn)?步研究和探索的領(lǐng)域 / 挑戰(zhàn)??模型在智能單測(cè)?成領(lǐng)域的未來(lái)發(fā)展趨勢(shì)是什么樣的?

張樹(shù)波:目前,我們對(duì)于 LLM 的應(yīng)用仍比較初級(jí),所以首先是最基礎(chǔ)的研究,如何正確激發(fā)大模型在單測(cè)任務(wù)上的潛力,讓大模型發(fā)揮全部的效果。目前我們探索的手段包括但不限于任務(wù)微調(diào)、prompt engineering、RL,然后是下一個(gè)階段,如何讓模型不斷地增強(qiáng)在特定場(chǎng)景中的效果。另外,大模型的能力和發(fā)展讓原本一些無(wú)法通過(guò)自動(dòng)化解決的問(wèn)題有了新的可能性,比如經(jīng)典的 oracle problem,不僅僅是困擾單測(cè)生成,GUI 的測(cè)試、program repair 的落地都受限于這個(gè)經(jīng)典問(wèn)題。如果大模型能夠解決 oracle problem,剛才提到的多種軟工技術(shù),會(huì)迎來(lái)又一個(gè)落地的春天,而我們對(duì)于這個(gè)趨勢(shì)充滿(mǎn)信心。

“大模型將對(duì)研發(fā)模式產(chǎn)生顛覆性改變” InfoQ:?模型在軟件研發(fā)?作流中最?的價(jià)值是什么??模型對(duì)軟件研發(fā)?作流的改變,將會(huì)如何影響軟件開(kāi)發(fā)?業(yè)的未來(lái)發(fā)展趨勢(shì)?

張樹(shù)波:毫無(wú)疑問(wèn),大模型將對(duì)研發(fā)的模式產(chǎn)生顛覆性的改變,但這個(gè)改變并不會(huì)在一夜之間就發(fā)生,會(huì)是一個(gè)持續(xù)漸進(jìn)的過(guò)程,三年五年甚至十年。隨著大模型的不斷發(fā)展和進(jìn)化,對(duì)于研發(fā)工作流的影響程度會(huì)逐漸加深加強(qiáng)。副駕駛 Copilot 是一種比較可能的切入和演進(jìn)方式,一開(kāi)始會(huì)在一些比較合適的小場(chǎng)景,Copilot 以半自動(dòng)化的方式對(duì)特定任務(wù)進(jìn)行賦能和提效(比如單測(cè)的生成),然后隨著模型對(duì)代碼的理解能力和推理能力增強(qiáng),推理結(jié)果置信度提升,模型在任務(wù)中的重要程度逐步增加,在一些任務(wù)上達(dá)到和人類(lèi)同等重要的參與程度。

同時(shí),能力可以泛化推廣到其他相似或者相關(guān)的任務(wù),比如 defect detection、fault localization、program repair 等等,成為開(kāi)發(fā)者的“強(qiáng)化外骨骼”或者最佳搭檔。甚至有可能在不遠(yuǎn)的將來(lái),實(shí)現(xiàn)通過(guò) prompt 研發(fā)和調(diào)試軟件,就像《西部世界》中的場(chǎng)景一樣。

InfoQ:?前市?上存在很多結(jié)合?模型的研發(fā)效能?具,但在?些企業(yè)的端到端落地過(guò)程中并不理想,也沒(méi)有實(shí)現(xiàn)提效的突破,這背后可能存在哪些問(wèn)題?不同規(guī)模的企業(yè)如何通過(guò)?模型實(shí)現(xiàn)最優(yōu)的研發(fā)效率和質(zhì)量?

張樹(shù)波:大模型適合做推理任務(wù),這是之前單體小模型不具備的能力。在這個(gè)基礎(chǔ)上,可以反觀大模型是否在做這類(lèi)事情。另外當(dāng)前市面上的開(kāi)源大模型或者大模型 API 都是通用大模型接口,如果直接在某個(gè)領(lǐng)域應(yīng)用可能存在領(lǐng)域的 gap。大模型本身也存在問(wèn)題,例如大模型生成內(nèi)容是有偏的,而且存在模型幻覺(jué)、推理錯(cuò)誤等問(wèn)題。同時(shí)研發(fā)效能工具的需要結(jié)合具體業(yè)務(wù)落地,我們智能服務(wù)團(tuán)隊(duì),在抖音、直播、剪映做了很多開(kāi)創(chuàng)性的研發(fā)效能實(shí)踐,歡迎大家與我們合作。

大模型應(yīng)用可以分為幾個(gè)層次,API 調(diào)用、模型微調(diào)、模型繼續(xù)預(yù)訓(xùn)練、模型預(yù)訓(xùn)練,成本依次呈幾何級(jí)數(shù)遞增,不同規(guī)模企業(yè)可以簡(jiǎn)單衡量下投入產(chǎn)出比,來(lái)確定在哪個(gè)層面應(yīng)用大模型。

InfoQ:?模型會(huì)對(duì)程序員帶來(lái)哪些沖擊?程序員和?模型如何更好地共?,實(shí)現(xiàn) 1+1>2 的效果?

張樹(shù)波:我不認(rèn)為大模型會(huì)減少對(duì)程序員的需求量,因?yàn)楝F(xiàn)在大模型還不能替代程序員,也不能為最終結(jié)果負(fù)責(zé)。在我們智能服務(wù)團(tuán)隊(duì)的實(shí)際業(yè)務(wù)中,我們把程序員當(dāng)成客戶(hù),模型生成的單測(cè)為程序員服務(wù),自動(dòng)化單測(cè)檢測(cè)出來(lái)的問(wèn)題需程序員解決,大模型和程序本身是共生的關(guān)系。

大模型生成代碼能力增強(qiáng)的同時(shí),需要程序員提升自己的專(zhuān)業(yè)能力,能快速判斷大模型生成的代碼是否正確以及生成質(zhì)量的高低。程序員能力越強(qiáng),使用大模型生成代碼的質(zhì)量也會(huì)越高,因?yàn)橥ㄟ^(guò)使用不同的 prompt,可以生成不同質(zhì)量的代碼。程序員應(yīng)該擁抱大模型,它可以提高代碼編寫(xiě)效率,對(duì)于一些常識(shí)性的問(wèn)題,它也能做到有問(wèn)必答,省去網(wǎng)上搜索的時(shí)間。

嘉賓簡(jiǎn)介

張樹(shù)波,字節(jié)跳動(dòng)算法專(zhuān)家,清華大學(xué)碩士畢業(yè),先后就職于 vivo、字節(jié)跳動(dòng)。從事 NLP 算法多年,在智能單測(cè)、智能客服、語(yǔ)音助手等業(yè)務(wù)場(chǎng)景有豐富的落地經(jīng)驗(yàn)。將在 QCon 北京 2023 分享題為《大模型助力智能單測(cè)生成》的演講。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49701

    瀏覽量

    261139
  • 字節(jié)跳動(dòng)
    +關(guān)注

    關(guān)注

    0

    文章

    348

    瀏覽量

    9860
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3434

    瀏覽量

    4955

原文標(biāo)題:大模型顛覆研發(fā)模式:字節(jié)跳動(dòng)是如何在單元測(cè)試中落地大模型的?

文章出處:【微信號(hào):AI前線(xiàn),微信公眾號(hào):AI前線(xiàn)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    何在vivadoHLS中使用.TLite模型

    本帖欲分享如何在vivadoHLS中使用.TLite模型。在Vivado HLS中導(dǎo)入模型后,需要設(shè)置其輸入和輸出接口以與您的設(shè)計(jì)進(jìn)行適配。 1. 在Vivado HLS項(xiàng)目中導(dǎo)入模型
    發(fā)表于 10-22 06:29

    邊聊安全 | 軟件單元測(cè)試的設(shè)計(jì)方法

    上海磐時(shí)PANSHI“磐時(shí),做汽車(chē)企業(yè)的安全智庫(kù)”軟件單元測(cè)試的設(shè)計(jì)方法寫(xiě)在前面:軟件單元測(cè)試的設(shè)計(jì)是一個(gè)系統(tǒng)化的過(guò)程,旨在驗(yàn)證代碼的最小可測(cè)試部分(通常是函數(shù)或方法)是否按預(yù)期工作。軟件單元
    的頭像 發(fā)表于 09-05 16:18 ?3932次閱讀
    邊聊安全 | 軟件<b class='flag-5'>單元測(cè)試</b>的設(shè)計(jì)方法

    HarmonyOSAI編程單元測(cè)試用例

    根據(jù)選中的ArkTS方法名稱(chēng),CodeGenie支持自動(dòng)生成對(duì)應(yīng)單元測(cè)試用例,提升測(cè)試覆蓋率。 在ArkTS文檔中,光標(biāo)放置于方法名稱(chēng)上或框選完整的待測(cè)試方法代碼塊,右鍵選擇CodeGenie
    發(fā)表于 08-27 14:33

    模型捉蟲(chóng)行家MV:致力全流程模型動(dòng)態(tài)測(cè)試

    動(dòng)態(tài)測(cè)試通過(guò)模擬真實(shí)運(yùn)行數(shù)據(jù),對(duì)模型及生成的代碼進(jìn)行“全維度體檢”。這一過(guò)程層層遞進(jìn):從單元測(cè)試聚焦單個(gè)模塊的精準(zhǔn)性,到集成測(cè)試驗(yàn)證模塊間的協(xié)作邏輯,最終通過(guò)
    的頭像 發(fā)表于 07-09 16:37 ?885次閱讀
    <b class='flag-5'>模型</b>捉蟲(chóng)行家MV:致力全流程<b class='flag-5'>模型</b>動(dòng)態(tài)<b class='flag-5'>測(cè)試</b>

    新能源車(chē)軟件單元測(cè)試深度解析:自動(dòng)駕駛系統(tǒng)視角

    )。 ? 成本節(jié)約: ?通過(guò)虛擬化測(cè)試替代部分HIL設(shè)備,某車(chē)企減少70%的硬件采購(gòu)成本(約800萬(wàn)美元)。 ?第四部分:未來(lái)趨勢(shì)與行業(yè)建議****? ?MBSE與單元測(cè)試的深度融合? 基于模型
    發(fā)表于 05-12 15:59

    嵌入式軟件單元測(cè)試的必要性、核心方法及工具深度解析

    一、為什么嵌入式軟件必須重視單元測(cè)試? ?嵌入式系統(tǒng)的特殊性? 在汽車(chē) ECU、醫(yī)療設(shè)備控制器等場(chǎng)景中,軟件直接操控硬件,?單比特錯(cuò)誤可能導(dǎo)致剎車(chē)失靈或呼吸機(jī)故障?。不同于 PC?軟件可頻繁熱更新
    的頭像 發(fā)表于 03-21 14:53 ?918次閱讀

    字節(jié)豆包大模型團(tuán)隊(duì)提出稀疏模型架構(gòu)

    字節(jié)跳動(dòng)豆包大模型Foundation團(tuán)隊(duì)近期研發(fā)出UltraMem,一種創(chuàng)新的稀疏模型架構(gòu),旨在解決推理過(guò)程中的訪存問(wèn)題,同時(shí)確保
    的頭像 發(fā)表于 02-13 15:25 ?989次閱讀

    字節(jié)豆包大模型團(tuán)隊(duì)推出UltraMem稀疏架構(gòu)

    字節(jié)跳動(dòng)豆包大模型Foundation團(tuán)隊(duì)近期在稀疏模型架構(gòu)領(lǐng)域取得了新突破,提出了一種名為UltraMem的新型架構(gòu)。這一架構(gòu)通過(guò)將計(jì)算和參數(shù)解耦,成功解決了
    的頭像 發(fā)表于 02-13 11:17 ?1040次閱讀

    字節(jié)跳動(dòng)否認(rèn)趙明加盟及自研手機(jī)傳聞

    月7日正式發(fā)表聲明進(jìn)行回應(yīng)。公司方面明確表示,關(guān)于趙明加盟字節(jié)跳動(dòng)的消息并不屬實(shí),公司并未與趙明就加盟事宜進(jìn)行過(guò)任何接觸或談判。這一聲明迅速澄清了市場(chǎng)關(guān)于趙明可能加入字節(jié)跳動(dòng)的猜測(cè)。
    的頭像 發(fā)表于 02-10 09:12 ?842次閱讀

    字節(jié)跳動(dòng)即將推出多模態(tài)視頻生成模型OmniHuman

    字節(jié)跳動(dòng)旗下一站式AI創(chuàng)作平臺(tái)即夢(mèng)AI即將迎來(lái)重大更新,全新多模態(tài)視頻生成模型OmniHuman即將上線(xiàn)。這款模型字節(jié)
    的頭像 發(fā)表于 02-08 10:53 ?1115次閱讀

    字節(jié)跳動(dòng)豆包大模型1.5 Pro發(fā)布

    近日,字節(jié)跳動(dòng)旗下的豆包大模型迎來(lái)了全新的升級(jí)——豆包大模型1.5 Pro正式發(fā)布。這款全新模型在知識(shí)、代碼、推理、中文等多個(gè)測(cè)評(píng)基準(zhǔn)上表現(xiàn)
    的頭像 發(fā)表于 01-23 15:24 ?1086次閱讀

    字節(jié)跳動(dòng)發(fā)布豆包大模型1.5 Pro

    字節(jié)跳動(dòng)正式發(fā)布了豆包大模型1.5 Pro。 全新的Doubao -1.5 - pro模型綜合能力顯著增強(qiáng),在知識(shí)、代碼、推理、中文等多個(gè)測(cè)評(píng)基準(zhǔn)上,綜合得分優(yōu)于GPT - 4o、Cl
    的頭像 發(fā)表于 01-23 10:24 ?1097次閱讀

    字節(jié)跳動(dòng)與努比亞合作開(kāi)發(fā)AI手機(jī)

    2025年第一季度,雙方將拿出具體的研發(fā)方案,明確產(chǎn)品的功能定位和技術(shù)路線(xiàn)。這一階段的合作將主要集中在技術(shù)研發(fā)和產(chǎn)品設(shè)計(jì)上,為后續(xù)的樣機(jī)生產(chǎn)和測(cè)試打下堅(jiān)實(shí)基礎(chǔ)。 進(jìn)入2025年第二季度,字節(jié)
    的頭像 發(fā)表于 01-03 14:48 ?1649次閱讀

    字節(jié)跳動(dòng)否認(rèn)與中興通訊合作傳聞

    近日,有關(guān)字節(jié)跳動(dòng)旗下豆包大模型將內(nèi)嵌手機(jī)并與中興通訊探討成立新品牌的消息引發(fā)了市場(chǎng)的廣泛關(guān)注。然而,字節(jié)跳動(dòng)方面對(duì)此明確予以否認(rèn),稱(chēng)并未與
    的頭像 發(fā)表于 12-18 10:08 ?1530次閱讀

    【「大模型啟示錄」閱讀體驗(yàn)】如何在客服領(lǐng)域應(yīng)用大模型

    在客服領(lǐng)域是大模型落地場(chǎng)景中最多的,也是最容易實(shí)現(xiàn)的。本身客服領(lǐng)域的特點(diǎn)就是問(wèn)答形式,大模型接入難度低。今天跟隨《大模型啟示錄 》這本書(shū),學(xué)習(xí)大模型
    發(fā)表于 12-17 16:53