chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

2018年的7大最好的Python庫

DPVg_AI_era ? 來源:lq ? 2019-01-06 09:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者根據(jù)每周發(fā)布總結的系列文章,匯總了2018年針對數(shù)據(jù)科學家/AI的最佳庫、repos、包和工具。本文對其進行了梳理,列舉了人工智能和數(shù)據(jù)科學的七大Python庫。

本文作者Favio Vázquez從2018年開始發(fā)布《數(shù)據(jù)科學和人工智能每周文摘:Python & R》系列文章,為數(shù)據(jù)科學家介紹最好的庫、repos、packages以及工具。

一年結束,作者列出了2018年的7大最好的Python庫,這些庫確實地改進了研究人員的工作方式。

7. AdaNet?———快速靈活的AutoML框架

https://github.com/tensorflow/adanet

AdaNet是一個輕量級的、可擴展的TensorFlow AutoML框架,用于使用AdaNet算法訓練和部署自適應神經網(wǎng)絡[Cortes et al. ICML 2017]。AdaNet結合了多個學習子網(wǎng)絡,以減輕設計有效的神經網(wǎng)絡所固有的復雜性。

這個軟件包將幫助你選擇最優(yōu)的神經網(wǎng)絡架構,實現(xiàn)一種自適應算法,用于學習作為子網(wǎng)絡集合的神經架構。

你需要了解TensorFlow才能使用這個包,因為它實現(xiàn)了TensorFlow Estimator,但這將通過封裝訓練、評估、預測和導出服務來幫助你簡化機器學習編程

你可以構建一個神經網(wǎng)絡的集合,這個庫將幫助你優(yōu)化一個目標,以平衡集合在訓練集上的性能和將其泛化到未見過數(shù)據(jù)的能力之間的權衡。

安裝

安裝adanet之前需將TensorFlow升級到1.7或以上:

$pipinstall"tensorflow>=1.7.0"

從源代碼安裝

要從源代碼進行安裝,首先需要安裝bazel。

下一步,復制adanet和cd到它的根目錄:

$gitclonehttps://github.com/tensorflow/adanet&&cdadanet

從adanet根目錄運行測試:

$cdadanet$bazeltest-copt//...

確認一切正常后,將adanet安裝為pip包。

現(xiàn)在,可以對adanet進行試驗了。

importadanet

用法

有關AdaNet的詳細用法,請閱讀官方教程:

https://github.com/tensorflow/adanet/tree/master/adanet/examples/tutorials

https://ai.googleblog.com/2018/10/introducing-adanet-fast-and-flexible.html?m=1

6. TPOT——一個自動化的Python機器學習工具

https://github.com/EpistasisLab/tpot

之前我介紹過Auto-Keras,這是一個很棒的AutoML庫。現(xiàn)在我們有另一個非常有趣的工具——TPOT。

TPOT全稱是基于樹的pipeline優(yōu)化工具(Tree-based Pipeline Optimization Tool),這是一個非常棒Python自動機器學習工具,使用遺傳編程優(yōu)化機器學習pipeline。

TPOT可以自動化許多東西,包括生命特性選擇、模型選擇、特性構建等等。如果你是Python機器學習者,很幸運,TPOT是構建在Scikit-learn之上的,所以它生成的所有代碼看起來應該很熟悉。

它的作用是通過智能地探索數(shù)千種可能的pipeline來自動化機器學習中最繁瑣的部分,找到最適合你的數(shù)據(jù)的pipeline,然后為你提供最佳的 Python 代碼。

它的工作原理如下:

安裝

安裝TPOT之前,請先閱讀教程:

http://epistasislab.github.io/tpot/installing/

然后,運行以下代碼:

pipinstalltpot

例子:

首先讓我們從基本的Iris數(shù)據(jù)集開始:

1fromtpotimportTPOTClassifier 2fromsklearn.datasetsimportload_iris 3fromsklearn.model_selectionimporttrain_test_split 4 5#Loadirisdataset 6iris=load_iris() 7 8#Splitthedata 910X_trainX_train,X_test,y_train,y_test=train_test_split(iris.data,iris.target,11train_size=0.75,test_size=0.25)1213#FittheTPOTclassifier1415tpot=TPOTClassifier(verbosity=2,max_time_mins=2)16tpot.fit(X_train,y_train)1718#Exportthepipeline19tpot.export('tpot_iris_pipeline.py')

我們在這里構建了一個非?;镜腡POT pipeline,它將嘗試尋找最佳ML pipeline來預測iris.target。然后保存這個pipeline。之后,我們要做的就非常簡單了——加載生成的.py文件,你將看到:

1importnumpyasnp 2fromsklearn.kernel_approximationimportRBFSampler 3fromsklearn.model_selectionimporttrain_test_split 4fromsklearn.pipelineimportmake_pipeline 5fromsklearn.treeimportDecisionTreeClassifier 6#NOTE:Makesurethattheclassislabeled'class'inthedatafile 7tpot_data=np.recfromcsv('PATH/TO/DATA/FILE',delimiter='COLUMN_SEPARATOR',dtype=np.float64) 8features=np.delete(tpot_data.view(np.float64).reshape(tpot_data.size,-1),tpot_data.dtype.names.index('class'),axis=1) 9training_features,testing_features,training_classes,testing_classes=10train_test_split(features,tpot_data['class'],random_state=42)11exported_pipeline=make_pipeline(12RBFSampler(gamma=0.8500000000000001),13DecisionTreeClassifier(criterion="entropy",max_depth=3,min_samples_leaf=4,min_samples_split=9)14)15exported_pipeline.fit(training_features,training_classes)16results=exported_pipeline.predict(testing_features)

就是這樣。你已經以一種簡單但強大的方式為Iris數(shù)據(jù)集構建一個分類器。

現(xiàn)在我們來看看MNIST的數(shù)據(jù)集:

1fromtpotimportTPOTClassifier 2fromsklearn.datasetsimportload_digits 3fromsklearn.model_selectionimporttrain_test_split 4 5#loadandsplitdataset 6digitsdigits==load_digitsload_di() 7X_train,X_test,y_train,y_test=train_test_split(digits.data,digits.target, 8train_size=0.75,test_size=0.25) 910#FittheTPOTclassifier11tpot=TPOTClassifier(verbosity=2,max_time_mins=5,population_size=40)12tpot.fit(X_train,y_train)1314#Exportpipeline15tpot.export('tpot_mnist_pipeline.py')

接下來我們再次加載生成的 .py文件,你將看到:

1importnumpyasnp 2fromsklearn.model_selectionimporttrain_test_split 3fromsklearn.neighborsimportKNeighborsClassifier 4#NOTE:Makesurethattheclassislabeled'class'inthedatafile 5tpot_data=np.recfromcsv('PATH/TO/DATA/FILE',delimiter='COLUMN_SEPARATOR',dtype=np.float64) 6features=np.delete(tpot_data.view(np.float64).reshape(tpot_data.size,-1),tpot_data.dtype.names.index('class'),axis=1) 7training_features,testing_features,training_classes,testing_classes= 8train_test_split(features,tpot_data['class'],random_state=42) 9exported_pipeline=KNeighborsClassifier(n_neighbors=4,p=2,weights="distance")10exported_pipeline.fit(training_features,training_classes)11results=exported_pipeline.predict(testing_features)

5. SHAP?——一個解釋任何機器模型輸出的統(tǒng)一方法

https://github.com/slundberg/shap

解釋機器學習模型并不容易。然而,它對許多商業(yè)應用程序來說非常重要。幸運的是,有一些很棒的庫可以幫助我們完成這項任務。在許多應用程序中,我們需要知道、理解或證明輸入變量在模型中的運作方式,以及它們如何影響最終的模型預測。

SHAP (SHapley Additive exPlanations)是一種解釋任何機器學習模型輸出的統(tǒng)一方法。SHAP將博弈論與局部解釋聯(lián)系起來,并結合了之前的幾種方法。

安裝

SHAP可以從PyPI安裝

pipinstallshap

或conda -forge

condainstall-cconda-forgeshap

用法

有很多不同的模型和方法可以使用這個包。在這里,我將以DeepExplainer中的一個例子為例。

Deep SHAP是深度學習模型中SHAP值的一種高速近似算法,它基于與DeepLIFT的連接,如SHAP的NIPS論文所述(https://arxiv.org/abs/1802.03888)。

下面這個例子可以看到SHAP如何被用來解釋MNIST數(shù)據(jù)集的Keras模型結果:

#thisisthecodefromhttps://github.com/keras-team/keras/blob/master/examples/mnist_cnn.pyfrom__future__importprint_functionimportkerasfromkeras.datasetsimportmnistfromkeras.modelsimportSequentialfromkeras.layersimportDense,Dropout,Flattenfromkeras.layersimportConv2D,MaxPooling2DfromkerasimportbackendasKbatch_size=128num_classes=10epochs=12#inputimagedimensionsimg_rows,img_cols=28,28#thedata,splitbetweentrainandtestsets(x_train,y_train),(x_test,y_test)=mnist.load_data()ifK.image_data_format()=='channels_first':x_train=x_train.reshape(x_train.shape[0],1,img_rows,img_cols)x_test=x_test.reshape(x_test.shape[0],1,img_rows,img_cols)input_shape=(1,img_rows,img_cols)else:x_train=x_train.reshape(x_train.shape[0],img_rows,img_cols,1)x_test=x_test.reshape(x_test.shape[0],img_rows,img_cols,1)input_shape=(img_rows,img_cols,1)x_train=x_train.astype('float32')x_test=x_test.astype('float32')x_train/=255x_test/=255print('x_trainshape:',x_train.shape)print(x_train.shape[0],'trainsamples')print(x_test.shape[0],'testsamples')#convertclassvectorstobinaryclassmatricesy_train=keras.utils.to_categorical(y_train,num_classes)y_test=keras.utils.to_categorical(y_test,num_classes)model=Sequential()model.add(Conv2D(32,kernel_size=(3,3),activation='relu',input_shape=input_shape))model.add(Conv2D(64,(3,3),activation='relu'))model.add(MaxPooling2D(pool_size=(2,2)))model.add(Dropout(0.25))model.add(Flatten())model.add(Dense(128,activation='relu'))model.add(Dropout(0.5))model.add(Dense(num_classes,activation='softmax'))model.compile(loss=keras.losses.categorical_crossentropy,optimizer=keras.optimizers.Adadelta(),metrics=['accuracy'])model.fit(x_train,y_train,batch_size=batch_size,epochs=epochs,verbose=1,validation_data=(x_test,y_test))score=model.evaluate(x_test,y_test,verbose=0)print('Testloss:',score[0])print('Testaccuracy:',score[1])

更多示例:

https://github.com/slundberg/shap#sample-notebooks

4. Optimus——使用 Python 和 Spark 輕松實現(xiàn)敏捷數(shù)據(jù)科學工作流

https://github.com/ironmussa/Optimus

Optimus V2旨在讓數(shù)據(jù)清理更容易。這個API的設計對新手來說超級簡單,對使用pandas的人來說也非常熟悉。Optimus擴展了Spark DataFrame功能,添加了.rows和.cols屬性。

使用Optimus,你可以以分布式的方式清理數(shù)據(jù)、準備數(shù)據(jù)、分析數(shù)據(jù)、創(chuàng)建分析器和圖表,并執(zhí)行機器學習和深度學習,因為它的后端有Spark、TensorFlow和Keras。

Optimus是數(shù)據(jù)科學敏捷方法的完美工具,因為它幾乎可以幫助你完成整個過程的所有步驟,并且可以輕松地連接到其他庫和工具。

Installation (pip):

pipinstalloptimuspyspark

用法

在這個示例中,你可以從 URL 加載數(shù)據(jù),對其進行轉換,并應用一些預定義的清理功能:

fromoptimusimportOptimusop=Optimus()#Thisisacustomfunctiondeffunc(value,arg):return"thiswasanumber"df=op.load.url("https://raw.githubusercontent.com/ironmussa/Optimus/master/examples/foo.csv")df.rows.sort("product","desc").cols.lower(["firstName","lastName"]).cols.date_transform("birth","new_date","yyyy/MM/dd","dd-MM-YYYY").cols.years_between("birth","years_between","yyyy/MM/dd").cols.remove_accents("lastName").cols.remove_special_chars("lastName").cols.replace("product","taaaccoo","taco").cols.replace("product",["piza","pizzza"],"pizza").rows.drop(df["id"]<7)????.cols.drop("dummyCol")????.cols.rename(str.lower)????.cols.apply_by_dtypes("product",func,"string",?data_type="integer")????.cols.trim("*")????.show()

你可以將這個表格

轉換為這樣:

是不是很酷?這個庫還可以做更多事情,具體請閱讀:

https://www.hioptimus.com/

3. spacy——使用Python和Cython的工業(yè)級自然語言處理

https://spacy.io/

spaCy旨在幫助你完成實際的工作——構建真實的產品,或收集真實的見解。這個庫尊重你的時間,盡量避免浪費。它易于安裝,而且它的API簡單而高效。spaCy被視為自然語言處理的Ruby on Rails。

spaCy是為深度學習準備文本的最佳方法。它與TensorFlow、PyTorch、Scikit-learn、Gensim以及Python強大的AI生態(tài)系統(tǒng)的其他部分無縫交互。使用spaCy,你可以很容易地為各種NLP問題構建語言復雜的統(tǒng)計模型。

安裝

pip3installspacy$python3-mspacydownloaden

這里,我們還下載了英語語言模型。你可以在這里找到德語,西班牙語,意大利語,葡萄牙語,法國語等版本的模型:

https://spacy.io/models/

下面是主頁面的一個示例:

#python-mspacydownloaden_core_web_smimportspacy#LoadEnglishtokenizer,tagger,parser,NERandwordvectorsnlp=spacy.load('en_core_web_sm')#Processwholedocumentstext=(u"WhenSebastianThrunstartedworkingonself-drivingcarsat"u"Googlein2007,fewpeopleoutsideofthecompanytookhim"u"seriously.“IcantellyouveryseniorCEOsofmajorAmerican"u"carcompanieswouldshakemyhandandturnawaybecauseIwasn’t"u"worthtalkingto,”saidThrun,nowtheco-founderandCEOof"u"onlinehighereducationstartupUdacity,inaninterviewwith"u"Recodeearlierthisweek.")doc=nlp(text)#Findnamedentities,phrasesandconceptsforentityindoc.ents:print(entity.text,entity.label_)#Determinesemanticsimilaritiesdoc1=nlp(u"myfriesweresupergross")doc2=nlp(u"suchdisgustingfries")similarity=doc1.similarity(doc2)print(doc1.text,doc2.text,similarity)

在這個示例中,我們首先下載English tokenizer, tagger, parser, NER和word vectors。然后創(chuàng)建一些文本,打印找到的實體、短語和概念,最后確定兩個短語的語義相似性。運行這段代碼,你會得到:

SebastianThrunPERSONGoogleORG2007DATEAmericanNORPThrunPERSONRecodeORGearlierthisweekDATEmyfriesweresupergrosssuchdisgustingfries0.7139701635071919

2. jupytext

對我來說,jupytext是年度最佳。幾乎所有人都在像Jupyter這樣的筆記本上工作,但是我們也在項目的更核心部分使用像PyCharm這樣的IDE。

好消息是,你可以在自己喜歡的IDE中起草和測試普通腳本,在使用Jupytext時可以將IDE作為notebook在Jupyter中打開。在Jupyter中運行notebook以生成輸出,關聯(lián).ipynb表示,并作為普通腳本或傳統(tǒng)Jupyter notebook 進行保存和分享。

下圖展示了這個包的作用:

可點擊下方鏈接查看原文中的GIF展示:

https://heartbeat.fritz.ai/top-7-libraries-and-packages-of-the-year-for-data-science-and-ai-python-r-6b7cca2bf000

安裝

pipinstalljupytext--upgrade

然后,配置Jupyter使用Jupytext:

使用jupyter notebook --generate-config生成Jupyter配置

編輯.jupyter/jupyter_notebook_config.py,并附加以下代碼:

c.NotebookApp.contents_manager_class="jupytext.TextFileContentsManager"

重啟Jupyter,即運行:

jupyternotebook

你可以在這里試試:

https://mybinder.org/v2/gh/mwouts/jupytext/master?filepath=demo

1.Chartify?——讓數(shù)據(jù)科學家很容易創(chuàng)建圖表的Python庫

https://xkcd.com/1945/

Chartify是Python的年度最佳庫。

在Python世界中創(chuàng)建一個像樣的圖很費時間。幸運的是,我們有像Seaborn之類的庫,但問題是他們的plots不是動態(tài)的。

然后就出現(xiàn)了Bokeh——這是一個超棒的庫,但用它來創(chuàng)造互動情節(jié)仍很痛苦。

Chartify建立在Bokeh之上,但它簡單得多。

Chartify的特性:

一致的輸入數(shù)據(jù)格式:轉換數(shù)據(jù)所需的時間更少。所有繪圖函數(shù)都使用一致、整潔的輸入數(shù)據(jù)格式。

智能默認樣式:創(chuàng)建漂亮的圖表,幾乎不需要自定義。

簡單API:API盡可能直觀和容易學習。

靈活性:Chartify是建立在Bokeh之上的,所以如果你需要更多的控制,你可以使用Bokeh的API。

安裝

Chartify可以通過pip安裝:

pip3installchartify

用法

假設我們想要創(chuàng)建這個圖表:

importpandasaspdimportchartify#Generateexampledatadata=chartify.examples.example_data()

現(xiàn)在,我們已經加載了一些示例數(shù)據(jù),讓我們來做一些轉換:

total_quantity_by_month_and_fruit=(data.groupby([data['date']+pd.offsets.MonthBegin(-1),'fruit'])['quantity'].sum().reset_index().rename(columns={'date':'month'}).sort_values('month'))print(total_quantity_by_month_and_fruit.head())monthfruitquantity02017-01-01Apple712017-01-01Banana622017-01-01Grape132017-01-01Orange242017-02-01Apple8

現(xiàn)在我們可以把它畫出來:

#Plotthedatach=chartify.Chart(blank_labels=True,x_axis_type='datetime')ch.set_title("Stackedarea")ch.set_subtitle("Representchangesindistribution.")ch.plot.area(data_frame=total_quantity_by_month_and_fruit,x_column='month',y_column='quantity',color_column='fruit',stacked=True)ch.show('png')

超級容易創(chuàng)建一個互動的plot。

更多示例:

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經網(wǎng)絡

    關注

    42

    文章

    4838

    瀏覽量

    107796
  • 機器學習
    +關注

    關注

    66

    文章

    8553

    瀏覽量

    136956
  • python
    +關注

    關注

    57

    文章

    4876

    瀏覽量

    90041

原文標題:必備!人工智能和數(shù)據(jù)科學的七大 Python 庫

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何在 Vision Five 2 上安裝 python ?

    這可能是一個完全愚蠢的問題,但我如何在 Vision Five 2 上安裝 python 。 使用該命令后,它給了我這個錯誤。 默認為用戶安裝,因為普通站點包不可寫 錯誤:找不到滿足要求
    發(fā)表于 03-06 07:51

    無法去除 Python VisionFive.i2c 的終端輸出?

    燒的官方最新八月份的 debian 12 的系統(tǒng)。 根據(jù)這個案例安裝好了 python 環(huán)境和 VisionFive 。 執(zhí)行下面這條代碼: import VisionFive.i2c
    發(fā)表于 02-25 06:13

    沒有專利的opencv-python 版本

    /SURF),且這些算法的專利已陸續(xù)過期(SIFT 2020 過期,SURF 多數(shù)地區(qū)已過期)。 以下是 完全無專利風險、適配不同場景的 OpenCV 版本推薦,結合你的 Python 3.13.9
    發(fā)表于 12-13 12:37

    Termux中調試圣誕樹Python代碼

    在Termux中調試Python代碼(以圣誕樹立例)非常簡單,核心分為環(huán)境準備、代碼編寫、運行調試三個步驟,下面一步步教你操作: 一、環(huán)境準備(首次使用需做) Termux默認可能沒有Python
    發(fā)表于 12-09 09:02

    官方新品 | 虹科PCAN-Explorer 7發(fā)布:帶來Python腳本與靈活授權新體驗

    虹科PCAN-Explorer7支持Python腳本+授權管理升級在CAN總線技術持續(xù)進化的當下,我們始終相信,工具的革新應與技術的前沿同頻,更應讓復雜的研發(fā)與分析工作,回歸簡潔、高效的本質。虹科
    的頭像 發(fā)表于 12-05 11:03 ?962次閱讀
    官方新品 | 虹科PCAN-Explorer <b class='flag-5'>7</b>發(fā)布:帶來<b class='flag-5'>Python</b>腳本與靈活授權新體驗

    Python調用API教程

    兩個不同系統(tǒng)之間的信息交互。在這篇文章中,我們將詳細介紹Python調用API的方法和技巧。 一、用Requests發(fā)送HTTP請求 使用Python調用API的第一步是發(fā)送HTTP請求,通常
    的頭像 發(fā)表于 11-03 09:15 ?887次閱讀

    termux如何搭建python游戲

    termux如何搭建python游戲 Termux搭建Python游戲開發(fā)環(huán)境的完整指南 一、Termux基礎環(huán)境準備 Termux是一款無需root即可在安卓設備上運行的Linux終端
    發(fā)表于 08-29 07:06

    睿思芯科7慶典回顧

    20258月20日,前海的晚風里飄蕩著蛋糕香氣與歡聲笑語——睿思芯科迎來了7周歲生日。從2018一間小小辦公室里的數(shù)人初創(chuàng)團隊,到如今斬獲國家高新技術企業(yè)、國家專精特新”小巨人“稱
    的頭像 發(fā)表于 08-25 09:54 ?1092次閱讀

    理想汽車公布20257月交付數(shù)據(jù)

    20258月1日,理想汽車公布20257月交付數(shù)據(jù)。20257月,理想汽車交付新車30,731輛。截至2025
    的頭像 發(fā)表于 08-04 17:19 ?1342次閱讀

    C++ 與 Python:樹莓派上哪種語言更優(yōu)?

    Python是樹莓派上的首選編程語言,我們的大部分教程都使用它。然而,C++在物聯(lián)網(wǎng)項目中同樣廣受歡迎且功能強大。那么,在樹莓派項目中選擇哪種語言更合適呢?Python因其簡潔性、豐富的和資源而被
    的頭像 發(fā)表于 07-24 15:32 ?951次閱讀
    C++ 與 <b class='flag-5'>Python</b>:樹莓派上哪種語言更優(yōu)?

    linux虛擬環(huán)境中調用Linux 版matlab編譯的python時出錯

    各位大神,能否幫忙解決以下問題,不勝感激。 問題描述:使用linux版的matlab2018b使用mcc -v -W python:CAO_python -T link:lib ... -d
    發(fā)表于 07-18 10:40

    python入門圣經-高清電子書(建議下載)

    和Pygal 等強大的Python 和工具介紹,以及列表、字典、if 語句、類、文件與異常、代碼測試等內容; 第二部分將理論付諸實踐,講解如何開發(fā)三個項目,包括簡單的Python 2D 游戲開發(fā)如何利用數(shù)據(jù)
    發(fā)表于 04-10 16:53

    ?如何在虛擬環(huán)境中使用 Python,提升你的開發(fā)體驗~

    。RaspberryPiOS預裝了Python3。干擾系統(tǒng)Python的安裝可能會給你的操作系統(tǒng)帶來問題。安裝第三方Python時,請務必使用正確的包管理工具。在Lin
    的頭像 發(fā)表于 03-25 09:34 ?815次閱讀
    ?如何在虛擬環(huán)境中使用 <b class='flag-5'>Python</b>,提升你的開發(fā)體驗~

    零基礎入門:如何在樹莓派上編寫和運行Python程序?

    在這篇文章中,我將為你簡要介紹Python程序是什么、Python程序可以用來做什么,以及如何在RaspberryPi上編寫和運行一個簡單的Python程序。什么是Python程序?
    的頭像 發(fā)表于 03-25 09:27 ?2041次閱讀
    零基礎入門:如何在樹莓派上編寫和運行<b class='flag-5'>Python</b>程序?

    Python在嵌入式系統(tǒng)中的應用場景

    你想把你的職業(yè)生涯提升到一個新的水平?Python在嵌入式系統(tǒng)中正在成為一股不可缺少的新力量。盡管傳統(tǒng)上嵌入式開發(fā)更多地依賴于C和C++語言,Python的優(yōu)勢在于其簡潔的語法、豐富的和快速的開發(fā)周期,這使得它在某些嵌入式場景
    的頭像 發(fā)表于 03-19 14:10 ?1499次閱讀