chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Text2SQL準(zhǔn)確率暴漲22.6%!3大維度全拆

京東云 ? 來源:jf_75140285 ? 作者:jf_75140285 ? 2025-08-14 11:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要

技術(shù)背景:Text2SQL 是將自然語言查詢轉(zhuǎn)為 SQL 的任務(wù),經(jīng)歷了基于規(guī)則、神經(jīng)網(wǎng)絡(luò)、預(yù)訓(xùn)練語言模型、大語言模型四個(gè)階段。當(dāng)前面臨提示優(yōu)化、模型訓(xùn)練、推理時(shí)增強(qiáng)三大難題,研究基于 BIRD 數(shù)據(jù)集展開。

方法:提出 J-Schema 呈現(xiàn)數(shù)據(jù)庫結(jié)構(gòu)并合理提供示例值,結(jié)合思維鏈引導(dǎo)模型推理。采用 Iterative DPO 迭代訓(xùn)練,多輪迭代提升性能。用自洽性方法,通過硬 / 軟投票從多個(gè)候選答案中選最優(yōu),軟投票更優(yōu)。

結(jié)果:解決 Text2SQL 性能提升的三大難題,將模型在 BIRD 數(shù)據(jù)集上的執(zhí)行準(zhǔn)確率從 56.6% 提升至 69.2%。

一、Text2SQL挑戰(zhàn)

自然語言到 SQL(Text-to-SQL),也稱為 NL2SQL,是將自然語言查詢轉(zhuǎn)換為可在關(guān)系數(shù)據(jù)庫上執(zhí)行的相應(yīng)SQL查詢的任務(wù)。具體來說,給定一個(gè)自然語言和一個(gè)關(guān)系數(shù)據(jù)庫,Text-to-SQL 的目標(biāo)是生成一個(gè)SQL,該SQL能夠準(zhǔn)確反映用戶的意圖,并在數(shù)據(jù)庫上執(zhí)行時(shí)返回適當(dāng)?shù)慕Y(jié)果。通過將自然語言查詢轉(zhuǎn)換為結(jié)構(gòu)化查詢語言的能力,使復(fù)雜數(shù)據(jù)集更易于訪問。它極大地促進(jìn)了非專業(yè)用戶和高級用戶從大量數(shù)據(jù)存儲中提取價(jià)值信息。

Text-to-SQL 解決方案的演進(jìn),經(jīng)歷了四個(gè)不同階段:

1. 基于規(guī)則階段:早期的Text2SQL方法主要依賴于基于規(guī)則的統(tǒng)計(jì)語言模型,主要聚焦于單表查詢,理解能力僅限于詞元階段;

2. 基于神經(jīng)網(wǎng)絡(luò)階段:神經(jīng)網(wǎng)絡(luò)模型(序列模型、圖神經(jīng)模型),提升了同義詞處理和意圖理解能力,使研究從單表擴(kuò)展到多表場景。但其泛化能力仍受模型規(guī)模和訓(xùn)練數(shù)據(jù)量限制;

3. 預(yù)訓(xùn)練語言模型階段:預(yù)訓(xùn)練語言模型(如BERT和T5)的引入顯著提升了性能,極大增強(qiáng)了自然語言理解能力;

4. 大語言模型階段:LLM憑借強(qiáng)大的涌現(xiàn)能力,成為當(dāng)前Text2SQL領(lǐng)域的主流方案。研究重心轉(zhuǎn)向優(yōu)化提示工程和微調(diào)LLM。

?

wKgZPGidVU6AdOSMAAVZUPmSBvw938.png

??

?

Text2SQL性能的提升,面臨著以下三個(gè)難題。

提示優(yōu)化:怎么引導(dǎo)大模型給出明確的推理過程?數(shù)據(jù)庫的Schema要怎么設(shè)計(jì),才能讓大模型更容易理解?

模型訓(xùn)練:如何通過訓(xùn)練方法提升模型的基礎(chǔ)能力?

推理時(shí)增強(qiáng):大模型生成答案時(shí)好時(shí)壞,有什么辦法能讓輸出更加穩(wěn)定可靠?

我們從這三個(gè)維度,分別給出了我們的答案。在本文中使用的數(shù)據(jù)集來自BIRD(BIg Bench for LaRge-scale Database Grounded Text-to-SQL Evaluation)。BIRD考察了大規(guī)模數(shù)據(jù)庫內(nèi)容對文本到 SQL 解析的影響。BIRD 包含超過12,751個(gè)獨(dú)特的[問題-SQL]對,95 個(gè)大型數(shù)據(jù)庫,還涵蓋了超過 37 個(gè)專業(yè)領(lǐng)域,例如區(qū)塊鏈、冰球、醫(yī)療保健和教育等。

wKgZO2idVU-AGvzSAAMZu4VNtr0261.png

??

二、Prompt & J-Schema

要讓 LLM 理解數(shù)據(jù)庫結(jié)構(gòu),需在提示中提供數(shù)據(jù)庫模式。為此,我們提出一種名為 J-Schema 的新型數(shù)據(jù)庫表達(dá)方式。J-Schema 以完全結(jié)構(gòu)化的格式呈現(xiàn)數(shù)據(jù)、表與列之間的層次關(guān)系,并采用特殊標(biāo)記進(jìn)行識別:用 “#DB_ID” 標(biāo)記數(shù)據(jù)庫,“#Table” 表示表,“#Foreign keys” 表示外鍵。對于每個(gè)表,會(huì)給出表名;列信息則通過 “basic_info” 標(biāo)識,其中包含列名、列描述、主鍵標(biāo)識符,且為每個(gè)列提供示例值。

?

wKgZO2idVVCAH-A6AATonFFZKgY079.png

??

?

對于單一模型而言,在無法執(zhí)行值檢索的情況下,提供盡可能豐富的示例值有助于模型深化對列的理解。然而,示例值過多會(huì)受限于上下文長度。為平衡示例值數(shù)量與上下文長度之間的關(guān)系,我們?yōu)橹到⒘诵碌娘@示規(guī)則。

1.“DATE”、“TIME”、“DATETIME”、“TIMESTAMP”等表示時(shí)間的數(shù)據(jù)類型,只保留一個(gè)示例;

2.“REAL”浮點(diǎn)數(shù)據(jù)類型,保留兩位小數(shù)一個(gè)示例;

3.針對“INTEGER”整型,保留一個(gè)示例;

4.針對“TEXT”文本類型,根據(jù)分詞長度保留。小于10 token保留多個(gè)示例。

在這套規(guī)則背后,包含了我們對大量錯(cuò)誤樣本的分析。對于日期、浮點(diǎn)數(shù)、整數(shù)這些數(shù)據(jù)類型,大模型往往是根據(jù)問題中的日期、時(shí)間要求來取值,因此增加這些數(shù)據(jù)類型的示例對最終的結(jié)果影響不大。而針對文本數(shù)據(jù)類型,往往涉及到用戶查詢和數(shù)據(jù)庫中值格式不統(tǒng)一問題。例如問題詢問的關(guān)鍵字是大寫的“North Bohemia”,而數(shù)據(jù)庫中的值為小寫的“north Bohemia”,若給出的示例中包含“north Bohemia”,則可以正確檢索。實(shí)驗(yàn)驗(yàn)證J-Schema在多個(gè)模型上均有執(zhí)行準(zhǔn)確率較大提升。

?

問題 正確答案 錯(cuò)誤答案 原因分析
What is the city location of the high school level school with Lunch Provision 2 whose lowest grade is 9 and the highest grade is 12 in the county of Merced? SELECT T2.City FROM frpm AS T1 INNER JOIN schools AS T2 ON T1.CDSCode = T2.CDSCode WHERE T1.`NSLP Provision Status` = 'Lunch Provision 2' AND T2.County = 'Merced' AND T1.`Low Grade` = 9 AND T1.`High Grade` = 12 AND T2.EILCode = 'HS' SELECT T2.City FROM main.frpm AS T1 INNER JOIN main.schools AS T2 ON T1.CDSCode = T2.CDSCode WHERE T1."NSLP Provision Status" = 'Breakfast Provision 2' AND T1."Low Grade" = '9' AND T1."High Grade" = '12' AND T1."County Name" = 'Merced'; 要求檢索的是“Lunch Provision 2”,因?yàn)槭纠抵唤o出了“Breakfast Provision 2”,導(dǎo)致檢索錯(cuò)誤??梢酝ㄟ^增加示例解決。
How many accounts who choose issuance after transaction are staying in East Bohemia region? SELECT COUNT(T2.account_id) FROM district AS T1 INNER JOIN account AS T2 ON T1.district_id = T2.district_id WHERE T1.A3 = 'east Bohemia' AND T2.frequency = 'POPLATEK PO OBRATU' SELECT COUNT(T1.account_id) FROM main.account AS T1 INNER JOIN main.district AS T2 ON T1.district_id = T2.district_id WHERE T1.frequency = 'POPLATEK PO OBRATU' AND T2.A3 = 'East Bohemia' 問題的格式“East Bohemia”與示例值“east Bohemia”的格式不統(tǒng)一,增加示例值,讓模型學(xué)習(xí)到標(biāo)準(zhǔn)的值格式。

?

思維鏈(Chain of Thought, CoT)是一種提升大語言模型復(fù)雜推理能力的提示工程技術(shù),核心是引導(dǎo)模型在輸出最終答案前,先生成連貫的中間推理步驟,模擬人類逐步思考的過程。在我們的提示中首先給出完整的數(shù)據(jù)庫信息,然后添加用戶查詢和外部知識,并給出引導(dǎo)大模型分步進(jìn)行推理的提示,將推理過程輸出在和標(biāo)記內(nèi),將最終的SQL答案輸出在和標(biāo)記內(nèi)。

?

三、訓(xùn)練方法

Iterative DPO

偏好優(yōu)化已被證明,在將預(yù)訓(xùn)練語言模型與人類需求對齊時(shí),相較于單獨(dú)的監(jiān)督微調(diào)能帶來巨大的收益。DPO等離線方法因其簡單性和效率而越來越受歡迎。最近的研究結(jié)果表明,迭代應(yīng)用這種離線流程是有益的,其中更新后的模型被用來構(gòu)建更具有信息量的新偏好關(guān)系,從而進(jìn)一步改善結(jié)果。為了提高模型的基礎(chǔ)能力,我們采用迭代式的DPO訓(xùn)練方法。

具體而言,在每次迭代中,我們從訓(xùn)練提示中采樣多個(gè)思維鏈推理步驟和最終答案,通過驗(yàn)證最終答案,構(gòu)建正例池和負(fù)例池,在正、負(fù)例池根據(jù)距離挑選來構(gòu)建偏好對,然后進(jìn)行DPO訓(xùn)練。在訓(xùn)練新模型后,我們通過生成新偏好對并重新訓(xùn)練來迭代該過程。我們發(fā)現(xiàn)推理性能在多次迭代后逐漸提高,最終達(dá)到飽和。

?

wKgZPGidVVGALorkAAHylCOq-Vo363.png

??

?

每一輪迭代中Text2SQL準(zhǔn)確率提升如下表所示。在第三輪迭代中執(zhí)行準(zhǔn)確率達(dá)到最高,并飽和,繼續(xù)迭代執(zhí)行準(zhǔn)確率下降。并且隨著迭代輪次的增加,思維鏈的長度也在不斷增加。

模型 平均CoT token長度 執(zhí)行準(zhǔn)確率EX
Qwen2.5-Coder-32B 334 63.69%
iterative stage1 377 65.78%
iterative stage2 377 67.08%
iterative stage3 380 67.60%
iterative stage4 384 67.40%

?

超參數(shù)掃描

我們通過DPO方法進(jìn)行訓(xùn)練, beta是DPO Loss中的權(quán)重系數(shù),數(shù)值越小越忽略參考模型,通常取0.1~0.5。因?yàn)槲覀冇^察到DPO對齊算法對這一參數(shù)特別敏感。我們設(shè)置了beta從0.1、0.2 、...、0.6變化。所有實(shí)驗(yàn)均訓(xùn)練兩個(gè) epoch。每次運(yùn)行時(shí),其他超參數(shù)保持不變,包括隨機(jī)種子。不同beta值對應(yīng)的執(zhí)行準(zhǔn)確率如下圖所示。當(dāng)beta取0.5時(shí),達(dá)到最高的執(zhí)行準(zhǔn)確率,后續(xù)的DPO迭代中我們都延續(xù)使用該beta值。

wKgZO2idVVGABFfRAAKFOP09A4M183.png

?

四、自洽性(Self-consistency)

自一致性的核心思想是:讓模型對同一問題生成多個(gè)候選答案,然后通過投票機(jī)制選擇最優(yōu)解,而不是只依賴單次生成結(jié)果。在單訓(xùn)練模型賽道自洽性是被允許的,因?yàn)樗从沉四P妥陨淼男阅堋?/p>

在實(shí)現(xiàn)自洽性的過程中,我們使用了硬投票和軟投票兩種方式。硬投票直接根據(jù)模型生成結(jié)果的最終表現(xiàn)(如執(zhí)行結(jié)果是否正確,二元判斷)進(jìn)行投票,不考慮結(jié)果之間的相似程度。軟投票的決策依據(jù)是根據(jù)結(jié)果之間的相似程度(連續(xù)值)。如下圖所示。

?

wKgZPGidVVKAM9drAANU_DWzOno264.png

??

?

在某些場景下,硬投票可能過于嚴(yán)格:

?語義等價(jià)但結(jié)果有細(xì)微差異:例如 SQL 查詢結(jié)果的順序不同,但邏輯上是等價(jià)的。

?近似正確的結(jié)果:例如模型生成了一個(gè)接近正確答案的解,但存在小誤差。軟投票通過相似度計(jì)算,可以將這些 “近似正確” 的結(jié)果納入考慮,從而提高最終答案的可靠性。

不同的checkpoint模型使用自洽性均獲得了1%以上的執(zhí)行準(zhǔn)確率提升,其中軟投票方法要優(yōu)于硬投票方法。

模型 無自洽性 硬投票 軟投票
iterative stage3 67.60% 67.93% 68.97%
iterative stage4 67.40% 67.40% 68.45%

五、未來探索

1.數(shù)據(jù)構(gòu)造

SynSQL-2.5M是百萬規(guī)模的文本到 SQL 數(shù)據(jù)集,包含超過250萬份多樣且高質(zhì)量的數(shù)據(jù)樣本,涵蓋來自不同領(lǐng)域的 16000 多個(gè)數(shù)據(jù)庫。如何從250萬份樣本中篩選出對于BIRD有益的數(shù)據(jù)將會(huì)是未來的重點(diǎn)嘗試方向。

2. 其他訓(xùn)練方法

?GRPO通過組內(nèi)相對獎(jiǎng)勵(lì)來優(yōu)化策略模型,在Text2SQL任務(wù)中,只需要定義獎(jiǎng)勵(lì)函數(shù)(例如執(zhí)行正確獎(jiǎng)勵(lì)為1,執(zhí)行錯(cuò)誤獎(jiǎng)勵(lì)為0),而不需要預(yù)先構(gòu)建偏好數(shù)據(jù)對。9N LLM的新鏡像中提供了提交GRPO的訓(xùn)練任務(wù)可作嘗試。在目前的嘗試中,GRPO的訓(xùn)練時(shí)長主要受到reward驗(yàn)證的影響,采樣n次時(shí),每一個(gè)SQL樣本都需要連接數(shù)據(jù)庫執(zhí)行驗(yàn)證來獲取獎(jiǎng)勵(lì)。為了縮短訓(xùn)練時(shí)間,可以事先刪除執(zhí)行時(shí)長過長的樣本。

?在BIRD訓(xùn)練集中,針對多輪DPO后的模型,進(jìn)行多次采樣時(shí),仍然全錯(cuò)的樣本,經(jīng)過檢查有很大部分是自身標(biāo)簽錯(cuò)誤,使用LLM-as-Judge訓(xùn)練方法,使模型能夠具備判斷正負(fù)樣本的能力,并且進(jìn)一步刪除標(biāo)簽錯(cuò)誤的樣本,保留正確樣本。

3. 增加測試該優(yōu)化方法的數(shù)據(jù)集和真實(shí)場景

用多個(gè)測試數(shù)據(jù)集有助于魯棒性,能夠更加全面的檢驗(yàn)?zāi)P偷男阅?。其?a target="_blank">知名的數(shù)據(jù)集還有SPIDER、ScienceBenchmark、EHRSQL等。我們將在這些測試集驗(yàn)證我們的優(yōu)化方案。并且我們會(huì)逐步推廣到DataAgent的真實(shí)應(yīng)用中。對于企業(yè)級的大型數(shù)據(jù)庫來說,還會(huì)有哪些新的挑戰(zhàn)?我們會(huì)持續(xù)關(guān)注,不斷探索和改進(jìn)!

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • SQL
    SQL
    +關(guān)注

    關(guān)注

    1

    文章

    789

    瀏覽量

    45979
  • 數(shù)據(jù)庫
    +關(guān)注

    關(guān)注

    7

    文章

    3977

    瀏覽量

    67394
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    337

    瀏覽量

    1129
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    精準(zhǔn)匹配哈爾濱零碳標(biāo)準(zhǔn)!安科瑞EMS3.0實(shí)現(xiàn)碳排放數(shù)據(jù)準(zhǔn)確率≥98%

    數(shù)據(jù)100%在線采集(參照《黑龍江省零碳園區(qū)建設(shè)指南》2025版)。 2. 地域化挑戰(zhàn) 嚴(yán)寒氣候限制:冬季光伏日均有效發(fā)電時(shí)長≤3小時(shí),棄光高達(dá)40%。 重工業(yè)負(fù)荷特性:裝備制造/食品加工園區(qū)沖擊性負(fù)荷(如冷庫壓縮機(jī))導(dǎo)致峰谷
    的頭像 發(fā)表于 08-18 16:39 ?344次閱讀
    精準(zhǔn)匹配哈爾濱零碳標(biāo)準(zhǔn)!安科瑞EMS3.0實(shí)現(xiàn)碳排放數(shù)據(jù)<b class='flag-5'>準(zhǔn)確率</b>≥98%

    負(fù)氧離子監(jiān)測系統(tǒng):從原理到應(yīng)用的維度突破

    負(fù)氧離子監(jiān)測系統(tǒng):從原理到應(yīng)用的維度突破 柏峰 【BF-FLZ】負(fù)氧離子作為衡量空氣質(zhì)量與生態(tài)環(huán)境的關(guān)鍵指標(biāo),其精準(zhǔn)監(jiān)測已成為環(huán)保、文旅、健康等領(lǐng)域的核心需求。負(fù)氧離子監(jiān)測系統(tǒng)通過融合傳感技術(shù)、物聯(lián)網(wǎng)傳輸與數(shù)據(jù)處理算法,實(shí)現(xiàn)了對空氣中 “隱形維生素” 的量化捕捉。
    的頭像 發(fā)表于 08-15 14:25 ?531次閱讀
    負(fù)氧離子監(jiān)測系統(tǒng):從原理到應(yīng)用的<b class='flag-5'>全</b><b class='flag-5'>維度</b>突破

    觸摸芯片全面選型指南:從功能到場景的維度考量

    觸摸芯片全面選型指南:從功能到場景的維度考量
    的頭像 發(fā)表于 07-17 17:54 ?352次閱讀

    Gems維度傳感器方案在液冷數(shù)據(jù)中心的應(yīng)用

    中心案例中,Gems維度傳感器方案使CDU系統(tǒng)的PUE優(yōu)化至1.08,設(shè)備故障有效下降,驗(yàn)證了 "精密感知即能效革命" 的行業(yè)共識。其中,傳感器作為 CDU 的 "神經(jīng)末梢",它的技術(shù)演進(jìn)正推動(dòng)液冷系統(tǒng)向更細(xì)微的級別突破。
    的頭像 發(fā)表于 07-14 15:51 ?497次閱讀

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型,模型升級AI攝像機(jī),進(jìn)行AI識別應(yīng)用。 AI訓(xùn)練模型是不斷迭代優(yōu)化過程,譬如,100個(gè)數(shù)據(jù)樣本模型的識別準(zhǔn)確率和10萬個(gè)數(shù)據(jù)樣本的識別準(zhǔn)確率,不一樣,AI模型理論上是客戶采集訓(xùn)練樣本越多,準(zhǔn)確率
    發(fā)表于 04-28 11:11

    快速部署!米爾志T527開發(fā)板的OpenCV行人檢測方案指南

    :使用測試數(shù)據(jù)集評估訓(xùn)練后的模型。計(jì)算模型的準(zhǔn)確率、召回和F1分?jǐn)?shù)等指標(biāo)。 三、代碼實(shí)現(xiàn)import cv2 import time def detect(image,scale
    發(fā)表于 04-11 18:14

    浪潮信息:元腦EPAI已接入DeepSeek,大幅提升DeepSeek企業(yè)應(yīng)用準(zhǔn)確率

    結(jié)合,深度開發(fā)模型潛力,快速實(shí)現(xiàn)本地化部署DeepSeek,構(gòu)建準(zhǔn)確率高、安全穩(wěn)定的專屬智能應(yīng)用。實(shí)測數(shù)據(jù)顯示,DeepSeek在元腦企智EPAI上開發(fā)的企業(yè)應(yīng)用回答準(zhǔn)確率達(dá)到95%。 ? 企業(yè)落地
    的頭像 發(fā)表于 02-23 07:32 ?762次閱讀
    浪潮信息:元腦EPAI已接入DeepSeek,大幅提升DeepSeek企業(yè)應(yīng)用<b class='flag-5'>準(zhǔn)確率</b>

    Meta非入侵式腦機(jī)技術(shù):AI讀取大腦信號打字準(zhǔn)確率80%

    腦機(jī)技術(shù)主要通過AI模型與特定硬件的結(jié)合,將用戶的大腦信號映射成具體的鍵盤字符。該技術(shù)的準(zhǔn)確率高達(dá)約80%,能夠準(zhǔn)確判斷用戶在“敲擊”的按鍵,從而實(shí)現(xiàn)文字輸入。 值得注意的是,這項(xiàng)設(shè)備完全依靠外部腦機(jī)讀取用戶的大腦信號,無需進(jìn)行植
    的頭像 發(fā)表于 02-11 15:45 ?917次閱讀

    Devart: dbForge Compare Bundle for SQL Server—比較SQL數(shù)據(jù)庫最簡單、最準(zhǔn)確的方法

    ? dbForge Compare Bundle For SQL Server:包含兩個(gè)工具,可幫助您節(jié)省用于手動(dòng)數(shù)據(jù)庫比較的 70% 的時(shí)間 dbForge數(shù)據(jù)比較 幫助檢測和分析實(shí)時(shí)SQL數(shù)據(jù)庫
    的頭像 發(fā)表于 01-17 11:35 ?748次閱讀

    請問AFE4400 SPO2精度和準(zhǔn)確率如何?

    請問用TI 的AFE4400 EVM 測量SPO2 的值,有沒有詳細(xì)的說明其測量的準(zhǔn)確率和精度,抗弱灌注等。謝謝! 比如如下類似: SpO2 測量范圍 0~100% 分辨 1% 精
    發(fā)表于 01-15 07:02

    如何提升人臉門禁一體機(jī)的識別準(zhǔn)確率?

    人臉門禁一體機(jī)作為現(xiàn)代安全管理的重要設(shè)備,廣泛應(yīng)用于企業(yè)、學(xué)校、社區(qū)等多個(gè)場所。其高效便捷的特性讓人們可以快速通過門禁,然而,識別準(zhǔn)確率的高低直接影響到使用體驗(yàn)與安全性。為了提高人臉門禁一體機(jī)的識別
    的頭像 發(fā)表于 12-10 15:05 ?1296次閱讀
    如何提升人臉門禁一體機(jī)的識別<b class='flag-5'>準(zhǔn)確率</b>?

    電導(dǎo)測定儀:功能全面,準(zhǔn)確測量

    在當(dāng)今的水質(zhì)監(jiān)測領(lǐng)域,電導(dǎo)測定儀作為一款高效、準(zhǔn)確的測量設(shè)備,正發(fā)揮著越來越重要的作用。它不僅能夠準(zhǔn)確測量溶液的電導(dǎo)值,還具備自動(dòng)溫度補(bǔ)償、一體式設(shè)計(jì)以及防水性能等特點(diǎn),成為水質(zhì)監(jiān)
    的頭像 發(fā)表于 11-28 13:41 ?1215次閱讀

    SQL與NoSQL的區(qū)別

    在信息技術(shù)領(lǐng)域,數(shù)據(jù)庫是存儲和管理數(shù)據(jù)的核心組件。隨著互聯(lián)網(wǎng)的發(fā)展和大數(shù)據(jù)時(shí)代的到來,對數(shù)據(jù)庫的需求也在不斷變化。SQL和NoSQL作為兩種主流的數(shù)據(jù)庫管理系統(tǒng),各自有著獨(dú)特的優(yōu)勢和應(yīng)用場
    的頭像 發(fā)表于 11-19 10:15 ?870次閱讀

    微機(jī)保護(hù)裝置預(yù)警功能的準(zhǔn)確率

    異常狀態(tài)。 微機(jī)保護(hù)裝置的預(yù)警功能準(zhǔn)確率是衡量其性能的重要指標(biāo),它直接關(guān)系到裝置能否及時(shí)準(zhǔn)確地檢測潛在的故障或異常情況,從而預(yù)防事故的發(fā)生。 準(zhǔn)確率影響因素: 1.硬件性能:高精度的傳感器和強(qiáng)大的數(shù)據(jù)處理單元直
    的頭像 發(fā)表于 11-03 16:10 ?688次閱讀

    ai人工智能回答準(zhǔn)確率高嗎

    人工智能(AI)回答的準(zhǔn)確率是一個(gè)相對的概念,會(huì)受到多個(gè)因素的影響,因此不能一概而論地說其準(zhǔn)確率高或低。以下是對AI回答準(zhǔn)確率及其影響因素的分析: 一、AI回答準(zhǔn)確率的現(xiàn)狀 在某些特定
    的頭像 發(fā)表于 10-17 16:30 ?9136次閱讀