chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MetaCode ,可以用自然語言編程

WpOh_rgznai100 ? 來源:lq ? 2019-07-18 11:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

周六晚上10點(diǎn)半, 張大胖興沖沖地在微信上找我:“欣哥,我發(fā)現(xiàn)一個編程軟件,非???!”

我:“別煩我!我忙著追劇呢?!?/p>

“真的非??幔@個軟件叫MetaCode ,可以用自然語言編程,你看看!”

自然語言編程?難道我之前故事中杜撰的X語言,Z語言真的實(shí)現(xiàn)了?

X語言:我在這兒-> 《當(dāng)世界上只剩下一個Java程序員

Z語言:我在這兒-> 《Z語言傳奇》

我放下了《破冰行動》,打開了張大胖發(fā)給我的連接:

https://metacode.app/。

DSL

看了一分鐘,不僅啞然失笑:“大胖,這哪里是自然語言編程?分明是DSL編程!”

“啥是DSL?”

“就是領(lǐng)域特定語言(Domain Specific Language)“

“啥是領(lǐng)域?”

“領(lǐng)域...... 這個......” 這家伙把我問住了。

“比如說,UI編程就是一個特定領(lǐng)域,Web自動化測試也是個領(lǐng)域,還有些業(yè)務(wù)相關(guān)的,稅務(wù)邏輯處理,金融邏輯處理,都是特定的領(lǐng)域?!?我通過舉例做了一個解釋。

“那這個軟件就是針對UI編程領(lǐng)域的DSL嘍?”

“是的,你看這個軟件,當(dāng)你輸入 view controller #TestVC的時候,它就會生成一個名稱為TestVC的Controller類, 當(dāng)你輸入add stackview #stack constrained的時候,它就會自動加上一個名稱為stack的View。注意這里的關(guān)鍵字,view, controller , add ,stackview,都是人家預(yù)先定義好的關(guān)鍵詞,還有那個#號,你是不能亂來的?!?/p>

“有點(diǎn)明白了,也就是說,這個Metacode自定義了一個更加高層的語言,程序員可以用這個語言中的指令來寫程序, 然后Metacode再把他們轉(zhuǎn)化成實(shí)際代碼。”

“對啊,就是這個意思,但是這個Metacode的DSL并不是一個通用的編程語言,你不能用它來做別的事情,你想想,你還用過哪些DSL?”

DSL案例

我看到張大胖的微信一直顯示“正在輸入”, 又撿起了破冰行動。

過了一會兒,張大胖的消息來了:“Ant算不算?”

“當(dāng)然算了,你看Ant中定義的任務(wù),專門是用來做Build的,你只要用XML描述一下Build的過程,根本不用寫具體代碼, 所以它是Build領(lǐng)域的DSL?!?/p>

對類進(jìn)行打包

把文件從一個地方復(fù)制到另外一個地方

運(yùn)行JUnit

...

“照欣哥這么說, Maven也算是DSL嘍?”

“對啊,Maven充分利用了約定終于配置的思路, 簡化了Ant中很多不必要的Task,只要你把目錄結(jié)構(gòu)安排好,Maven就能運(yùn)行?!?/p>

“還有哪些知名的DSL?” 張大胖繼續(xù)問。

“Ruby on Rails(簡稱)中的Active Record是DSL的一個典型?!?/p>

“又一個新詞!什么是Active Record? ” 隔著屏幕,我都能感受到張大胖有點(diǎn)兒不滿。

“Active Record是一種數(shù)據(jù)源架構(gòu)模式, 一個對象表示數(shù)據(jù)庫表的某一行數(shù)據(jù),這個對象不但有領(lǐng)域邏輯,還封裝了對數(shù)據(jù)庫的訪問。想了解細(xì)節(jié)的話,可以看看Martin Fowler寫的《企業(yè)應(yīng)用架構(gòu)模式》,這是一本很老,但是又很經(jīng)典的書了。”

“那RoR是怎么用DSL來實(shí)現(xiàn)Active Record的?”

“舉個例子,你有兩個業(yè)務(wù)相關(guān)的類,一個是Author, 另外一個是Book, 現(xiàn)在你想把他們之間建立關(guān)聯(lián), 也就是說一個作者可以有多本書,DSL可以這么寫:”

class Author < ApplicationRecord has_many :books, dependent: :destroyend

“當(dāng)你這么寫了以后,神奇的事情發(fā)生了,按照約定,RoR會得知在數(shù)據(jù)庫表中下圖所示的關(guān)系,然后你的Author類突然擁有了很多有用的新方法?!?/p>

#創(chuàng)建一個Author對象author = Author.new(name: "Andy")#創(chuàng)建一個Book對象,這個對象和Author是關(guān)聯(lián)的book = author.books.create(title: "xxxx")#刪除這個Author,注意,所有相關(guān)的Book也會刪除author.destroy

張大胖說:“果然是厲害,就通過has_many這么簡簡單單的一句話,框架就可以獲取這么多信息,自動生成這么多代碼。RoR的ActiveRecord相當(dāng)于一個ORM領(lǐng)域的DSL,對吧?”

“可以這么說,你看,這DSL是不是很有用,可以讓我們拋棄細(xì)節(jié),在一個更高的層面的編程,能極大地提升編程的效率。RoR剛誕生的時候,號稱比Java編程快10倍呢!”

DSL的實(shí)現(xiàn)

“對了,你也可以發(fā)掘下你工作的領(lǐng)域,看看有沒有可能創(chuàng)建一個屬于自己的DSL。但是我必須得提醒你,不能為了DSL而DSL?!?/p>

“嗯,我下周上班了仔細(xì)考慮下, 可是如果想創(chuàng)建自己的DSL,該怎么辦???”

“因為DSL本質(zhì)上是一個語言,所以你首先的定義自己的語法,然后再考慮怎么實(shí)現(xiàn)這個語法, 一種辦法是你用Lex,YACC,ANTLR等工具自己把這個語言給實(shí)現(xiàn)了,這叫外部DSL?!?/p>

“自己實(shí)現(xiàn)語言?這太難了!”

“還有一種辦法就是‘寄生’在別的語言中,利用別的語言(Ruby ,Python)的動態(tài)特性,構(gòu)建你自己的語法,像剛才的has_many就是這么做的,這種方式叫做內(nèi)部DSL?!?/p>

"好麻煩!" 張大胖已經(jīng)開始打退堂鼓了。

“這樣,你先看看一本書吧,也是Martin Fowler寫的,名稱就叫做《領(lǐng)域特定語言》!”

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • DSL
    DSL
    +關(guān)注

    關(guān)注

    2

    文章

    61

    瀏覽量

    38937
  • 數(shù)據(jù)庫
    +關(guān)注

    關(guān)注

    7

    文章

    3979

    瀏覽量

    67419
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13837

原文標(biāo)題:我發(fā)現(xiàn)了一個非??岬能浖?,用自然語言編程!

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    自然語言提示原型在英特爾Vision大會上首次亮相

    在英特爾Vision大會上,Network Optix首次展示了自然語言提示原型,該方案將重新定義視頻管理,為各行各業(yè)由AI驅(qū)動的洞察和效率提速。
    的頭像 發(fā)表于 04-09 09:30 ?649次閱讀

    如何優(yōu)化自然語言處理模型的性能

    優(yōu)化自然語言處理(NLP)模型的性能是一個多方面的任務(wù),涉及數(shù)據(jù)預(yù)處理、特征工程、模型選擇、模型調(diào)參、模型集成與融合等多個環(huán)節(jié)。以下是一些具體的優(yōu)化策略: 一、數(shù)據(jù)預(yù)處理優(yōu)化 文本清洗 :去除文本中
    的頭像 發(fā)表于 12-05 15:30 ?2133次閱讀

    如何使用自然語言處理分析文本數(shù)據(jù)

    使用自然語言處理(NLP)分析文本數(shù)據(jù)是一個復(fù)雜但系統(tǒng)的過程,涉及多個步驟和技術(shù)。以下是一個基本的流程,幫助你理解如何使用NLP來分析文本數(shù)據(jù): 1. 數(shù)據(jù)收集 收集文本數(shù)據(jù) :從各種來源(如社交
    的頭像 發(fā)表于 12-05 15:27 ?2124次閱讀

    自然語言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學(xué)領(lǐng)域的一個分支,它致力于研究如何讓計算機(jī)能夠理解、解釋和生成人類語言。機(jī)器學(xué)習(xí)(Machine
    的頭像 發(fā)表于 12-05 15:21 ?2340次閱讀

    語音識別與自然語言處理的關(guān)系

    在人工智能的快速發(fā)展中,語音識別和自然語言處理(NLP)成為了兩個重要的技術(shù)支柱。語音識別技術(shù)使得機(jī)器能夠理解人類的語音,而自然語言處理則讓機(jī)器能夠理解、解釋和生成人類語言。這兩項技術(shù)共同推動
    的頭像 發(fā)表于 11-26 09:21 ?1905次閱讀

    什么是LLM?LLM在自然語言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語言處理(NLP)領(lǐng)域迎來了革命性的進(jìn)步。其中,大型語言模型(LLM)的出現(xiàn),標(biāo)志著我們對語言理解能力的一次飛躍。LLM通過深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得機(jī)器能夠以前
    的頭像 發(fā)表于 11-19 15:32 ?4218次閱讀

    ASR與自然語言處理的結(jié)合

    ASR(Automatic Speech Recognition,自動語音識別)與自然語言處理(NLP)是人工智能領(lǐng)域的兩個重要分支,它們在許多應(yīng)用中緊密結(jié)合,共同構(gòu)成了自然語言理解和生成的技術(shù)體系
    的頭像 發(fā)表于 11-18 15:19 ?1307次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    。 卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),它通過卷積層來提取輸入數(shù)據(jù)的特征。在圖像處理中,卷積層能夠捕捉局部特征,如邊緣和紋理。在自然語言處理中,我們可以將文本視為一個序列,其中每個詞或字符可以
    的頭像 發(fā)表于 11-15 14:58 ?1055次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    自然語言處理(NLP)是人工智能領(lǐng)域的一個重要分支,它致力于使計算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其在處理序列數(shù)據(jù)方面的優(yōu)勢而在NLP中扮演了重要
    的頭像 發(fā)表于 11-15 09:41 ?1068次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語言處理任務(wù)

    自然語言處理(NLP)是人工智能領(lǐng)域的一個重要分支,它旨在使計算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長短期記憶(LSTM)網(wǎng)絡(luò)的出現(xiàn)
    的頭像 發(fā)表于 11-13 09:56 ?1491次閱讀

    自然語言處理的未來發(fā)展趨勢

    隨著技術(shù)的進(jìn)步,自然語言處理(NLP)已經(jīng)成為人工智能領(lǐng)域的一個重要分支。NLP的目標(biāo)是使計算機(jī)能夠理解、解釋和生成人類語言,這不僅涉及到語言的表層形式,還包括語言的深層含義。隨著大數(shù)
    的頭像 發(fā)表于 11-11 10:37 ?2025次閱讀

    自然語言處理與機(jī)器學(xué)習(xí)的區(qū)別

    在人工智能的快速發(fā)展中,自然語言處理(NLP)和機(jī)器學(xué)習(xí)(ML)成為了兩個核心的研究領(lǐng)域。它們都致力于解決復(fù)雜的問題,但側(cè)重點(diǎn)和應(yīng)用場景有所不同。 1. 自然語言處理(NLP) 定義: 自然語言處理
    的頭像 發(fā)表于 11-11 10:35 ?1893次閱讀

    自然語言處理的應(yīng)用實(shí)例

    在當(dāng)今數(shù)字化時代,自然語言處理(NLP)技術(shù)已經(jīng)成為我們?nèi)粘I畹囊徊糠帧闹悄苁謾C(jī)的語音助手到在線客服機(jī)器人,NLP技術(shù)的應(yīng)用無處不在。 1. 語音識別與虛擬助手 隨著Siri、Google
    的頭像 發(fā)表于 11-11 10:31 ?1933次閱讀

    使用LLM進(jìn)行自然語言處理的優(yōu)缺點(diǎn)

    自然語言處理(NLP)是人工智能和語言學(xué)領(lǐng)域的一個分支,它致力于使計算機(jī)能夠理解、解釋和生成人類語言。大型語言模型(LLM)是NLP領(lǐng)域的一項重要技術(shù),它們通過深度學(xué)習(xí)和大量的數(shù)據(jù)訓(xùn)練
    的頭像 發(fā)表于 11-08 09:27 ?3393次閱讀

    AI大模型在自然語言處理中的應(yīng)用

    AI大模型在自然語言處理(NLP)中的應(yīng)用廣泛且深入,其強(qiáng)大的語義理解和生成能力為NLP任務(wù)帶來了顯著的性能提升。以下是對AI大模型在NLP中應(yīng)用的介紹: 一、核心應(yīng)用 文本生成 AI大模型通過學(xué)習(xí)
    的頭像 發(fā)表于 10-23 14:38 ?2050次閱讀