qfree嫩幻l8ex性hd处, 欧美变态口味重另类av电影邢房, 三年中文在线观看免费高清第4版, 日本大一大二大三在一起读吗电影,国产绳艺在播放sM调教圈,超大胆美女赤裸全部身体照片,小哲玛利亚高清线视频,亚洲 AⅤ 一区二区,3p人妻真实露脸

本網(wǎng)站含有煙草內(nèi)容,未成年人謝絕訪問

煙業(yè)智匯

零售戶在線

微薰

手機(jī)版

您的位置:  首頁(yè) > 資訊 > 科技創(chuàng)新 > 正文

AXON:一個(gè)面向?qū)Yu執(zhí)法領(lǐng)域的閉環(huán)、多維知識(shí)增強(qiáng)框架

2025年09月25日 來(lái)源:煙草在線 作者:洪光華、高苗苗、余金文、胡洲鵬、沈培藝
A+ A

摘要:為解決大語(yǔ)言模型(LLM)在知識(shí)密集型專業(yè)領(lǐng)域因缺乏深度業(yè)務(wù)理解與知識(shí)持續(xù)進(jìn)化能力而難以落地的挑戰(zhàn),本文提出了一個(gè)名為“AXON”的閉環(huán)、多維知識(shí)增強(qiáng)框架。AXON的核心貢獻(xiàn)在于:1)一套面向業(yè)務(wù)的知識(shí)原子化與多維表示模型,它通過“八維坐標(biāo)系”對(duì)知識(shí)進(jìn)行深度語(yǔ)義標(biāo)注與結(jié)構(gòu)化,顯著提升了檢索上下文的精確性;2)一條人機(jī)協(xié)同的自動(dòng)化知識(shí)處理流水線,通過閉環(huán)工作流,將新增的專家知識(shí)無(wú)縫地、自動(dòng)化地注入知識(shí)庫(kù),實(shí)現(xiàn)知識(shí)體系的持續(xù)迭代。實(shí)驗(yàn)結(jié)果表明,相較于傳統(tǒng)檢索增強(qiáng)生成(RAG)方法,本框架在關(guān)鍵業(yè)務(wù)任務(wù)上的可用性與邏輯性平均提升超過60%,證明了該方案在賦能專業(yè)領(lǐng)域AI應(yīng)用上的顯著成效。

1. 引言

以煙草專賣執(zhí)法為代表的知識(shí)密集型行業(yè),在AI應(yīng)用中普遍面臨“數(shù)據(jù)富礦,知識(shí)孤島”的困境。盡管檢索增強(qiáng)生成(RAG)為利用海量非結(jié)構(gòu)化文檔提供了契機(jī),但其在專業(yè)領(lǐng)域的應(yīng)用存在明顯短板:一是依賴淺層語(yǔ)義匹配,導(dǎo)致檢索的上下文“相關(guān)但不精確”;二是知識(shí)庫(kù)通常是靜態(tài)的,無(wú)法捕獲業(yè)務(wù)中持續(xù)涌現(xiàn)的新知識(shí)、新案例;三是AI系統(tǒng)與專家工作流脫節(jié),形成“知識(shí)斷鏈”。

為系統(tǒng)性地解決上述問題,本文設(shè)計(jì)并實(shí)現(xiàn)了“AXON”框架。其核心思想是通過兩大支柱應(yīng)對(duì)挑戰(zhàn):1)知識(shí)原子化,即通過深度、面向業(yè)務(wù)的知識(shí)表示模型,為L(zhǎng)LM提供高質(zhì)量、精確的上下文;2)閉環(huán)進(jìn)化,即通過人機(jī)協(xié)同的自動(dòng)化流水線,實(shí)現(xiàn)知識(shí)體系的自我完善

2. 核心創(chuàng)新之一:知識(shí)原子化與多維表示模型

為解決傳統(tǒng)RAG上下文不精確的問題,我們對(duì)知識(shí)進(jìn)行了宏觀“坐標(biāo)化”與微觀“原子化”的深度拆解。

2.1 八維執(zhí)法知識(shí)坐標(biāo)系

我們?cè)O(shè)計(jì)了一套面向執(zhí)法業(yè)務(wù)的“八維執(zhí)法知識(shí)坐標(biāo)系”,它將每一份知識(shí)的屬性,從幾個(gè)簡(jiǎn)單標(biāo)簽,擴(kuò)展為八個(gè)相互正交的維度,從而賦予知識(shí)在多維空間中的唯一“坐標(biāo)”。

微信圖片_20250924094530.png

2.2 原子知識(shí)單元(AKU)的設(shè)計(jì)與實(shí)現(xiàn)

在定義了知識(shí)的宏觀坐標(biāo)后,以平衡人類閱讀的流暢性與機(jī)器解析的精確性為出發(fā)點(diǎn),設(shè)計(jì)了“原子知識(shí)單元”(AKU)作為實(shí)現(xiàn)精準(zhǔn)檢索的最小單位。

其語(yǔ)法實(shí)現(xiàn)是在Markdown的##標(biāo)題行附加JSON元數(shù)據(jù),從而將文檔原子化為具有獨(dú)立業(yè)務(wù)含義的知識(shí)點(diǎn)。

? 結(jié)構(gòu)示例:

## [單元標(biāo)題] { "chunk_id": "...", "keywords": ["...", "..."] }
[單元的正文內(nèi)容...]

其中:

?## [單元標(biāo)題]: 提供了人類可讀的章節(jié)標(biāo)題。

?{...}: 括號(hào)內(nèi)的JSON對(duì)象即是該AKU的元數(shù)據(jù)。

chunk_id: 全局唯一的ID,由自動(dòng)化流水線生成,用于精確引用和管理。

keywords: 針對(duì)該單元內(nèi)容的精準(zhǔn)關(guān)鍵詞,由LLM在處理流水線中自動(dòng)提取,用于增強(qiáng)檢索。

這種方式,使得RAG的檢索對(duì)象從寬泛的文檔,轉(zhuǎn)變?yōu)榫_、結(jié)構(gòu)化的知識(shí)單元。例如,一份《行政處罰決定書》可被原子化為“違法事實(shí)”、“法律依據(jù)”和“處罰決定”三個(gè)AKU。當(dāng)用戶提問“無(wú)準(zhǔn)運(yùn)證運(yùn)輸?shù)奶幜P依據(jù)是什么?”時(shí),系統(tǒng)可直接召回后兩個(gè)AKU,從而大幅提升答案的精確度。

2.3 后端知識(shí)流水線

這是將原始文檔加工為結(jié)構(gòu)化知識(shí)的核心引擎,由knowledge_pipeline代碼庫(kù)實(shí)現(xiàn)。

圖1:流水線工作流圖

流水線-扁平版本.png

代碼實(shí)現(xiàn)的設(shè)計(jì)思想如下:

·模塊化與單一職責(zé):?流水線的每個(gè)階段被拆分為獨(dú)立的Python腳本(ingest.py,?llm_processor.py,?dify_sync.py),每個(gè)腳本只負(fù)責(zé)一項(xiàng)核心任務(wù),提高了代碼的可讀性和可維護(hù)性。

·配置與邏輯分離:?config.py將所有可變參數(shù)(路徑、密鑰、分類法定義)集中管理,使得業(yè)務(wù)邏輯的調(diào)整無(wú)需修改核心代碼。

·冪等性設(shè)計(jì):?通過對(duì)源文件內(nèi)容進(jìn)行哈希并生成確定性ID,確保了llm_processor.py的輸出和dify_sync.py的同步操作都是冪等的,從根本上避免了數(shù)據(jù)重復(fù)和狀態(tài)不一致的問題。

·面向失敗設(shè)計(jì):?在與外部服務(wù)(LLM API, Dify API)交互時(shí),代碼中包含了基礎(chǔ)的異常捕獲,并在關(guān)鍵的main.py中對(duì)可能失敗的步驟進(jìn)行了判斷,保證了流水線的健壯性。

3. 核心創(chuàng)新之二:人機(jī)協(xié)同的知識(shí)更新與加工流程

為解決知識(shí)的靜態(tài)和人機(jī)割裂問題,課題組設(shè)計(jì)了一套覆蓋“用戶交互-知識(shí)運(yùn)營(yíng)-后端處理”的全鏈路閉環(huán)流程,能夠?qū)€(gè)案的專家智慧,高效、低成本地轉(zhuǎn)化為了整個(gè)組織可永久復(fù)用的AI能力。

圖2:全鏈路閉環(huán)流程體系架構(gòu)圖

體系架構(gòu)圖.png

第一階段:知識(shí)斷鏈的捕獲。 在用戶交互層,當(dāng)用戶向AI助手(如Dify聊天機(jī)器人)提出一個(gè)新穎或模糊的問題(例如“微信群銷售電子煙是否違法?”),而現(xiàn)有知識(shí)庫(kù)無(wú)法給出滿意答案時(shí),用戶可點(diǎn)擊“求助專家”按鈕。這一操作將問題、聊天上下文等信息,結(jié)構(gòu)化地提交到NocoBase等低代碼平臺(tái)構(gòu)建的“待辦問題池”中,從而捕獲了傳統(tǒng)流程中會(huì)石沉大海的“知識(shí)斷點(diǎn)”。

第二階段:人機(jī)協(xié)同的知識(shí)再創(chuàng)造。 在知識(shí)運(yùn)營(yíng)層,該問題作為一個(gè)工單,由知識(shí)審核員(如稽查隊(duì)長(zhǎng))分配給最合適的領(lǐng)域?qū)<?。專家在工作臺(tái)界面上給出權(quán)威解答,并由審核員最終評(píng)審。這個(gè)過程確保了新增知識(shí)的專業(yè)性與準(zhǔn)確性,將專家的隱性經(jīng)驗(yàn)顯性化、結(jié)構(gòu)化。

圖3:人機(jī)協(xié)同工作流程圖

人機(jī)協(xié)同流程圖-扁平版本.png

第三階段:自動(dòng)化知識(shí)注入。 當(dāng)審核員點(diǎn)擊“發(fā)布”后,系統(tǒng)進(jìn)入后端處理層。一條超自動(dòng)化流水線被觸發(fā),由一系列Python腳本自動(dòng)執(zhí)行:1)提取(Ingest):腳本通過API輪詢檢測(cè)到新發(fā)布的問答對(duì),獲取并轉(zhuǎn)換為標(biāo)準(zhǔn)文本。2)處理(Process):調(diào)用LLM,為該知識(shí)自動(dòng)標(biāo)注上精準(zhǔn)的八維坐標(biāo)元數(shù)據(jù)。3)同步(Sync):以冪等方式將這條加工好的、結(jié)構(gòu)化的新知識(shí)無(wú)縫注入到Dify主知識(shí)庫(kù)中。

4. 實(shí)驗(yàn)驗(yàn)證

我們?cè)O(shè)計(jì)了“報(bào)告生成”和“合規(guī)問答”兩個(gè)核心任務(wù),對(duì)基線(無(wú)RAG)、標(biāo)準(zhǔn)RAG和本框架三種策略進(jìn)行對(duì)比,并進(jìn)行了關(guān)鍵組件的消融實(shí)驗(yàn)。

表1:框架性能對(duì)比及消融實(shí)驗(yàn)綜合結(jié)果

微信圖片_20250924094657.png

結(jié)果分析: 實(shí)驗(yàn)數(shù)據(jù)顯示,本框架相較于標(biāo)準(zhǔn)RAG,在報(bào)告生成與合規(guī)問答任務(wù)上,平均分分別提升了50.0%和35.2%。消融實(shí)驗(yàn)證明,“八維元數(shù)據(jù)”這一核心設(shè)計(jì)對(duì)模型的邏輯性與業(yè)務(wù)可用性有決定性影響,移除該組件會(huì)導(dǎo)致性能下降約30%。

5. 結(jié)論

本文闡述的“AXON”框架,其核心貢獻(xiàn)在于:通過面向業(yè)務(wù)的知識(shí)原子化與多維表示模型,解決了LLM在專業(yè)領(lǐng)域應(yīng)用中上下文“不精確”的根本問題;并通過人機(jī)協(xié)同的自動(dòng)化知識(shí)加工流水線,構(gòu)建了知識(shí)持續(xù)進(jìn)化的閉環(huán),解決了知識(shí)庫(kù)“靜態(tài)陳舊”的痛點(diǎn)。與依賴大模型自主探索的Agent范式不同,本框架在企業(yè)級(jí)應(yīng)用中,更強(qiáng)調(diào)流程的確定性與知識(shí)的精確性。實(shí)驗(yàn)證明,該框架能大幅提升AI在專業(yè)領(lǐng)域的應(yīng)用成效,為傳統(tǒng)行業(yè)的知識(shí)管理與智能化轉(zhuǎn)型提供了一套富有價(jià)值的系統(tǒng)性解決方案。

參考文獻(xiàn):

1. Lewis, P., Pérez, E., Piktus, A., et al.?(2020). Retrieval-augmented generation for knowledge-intensive NLP tasks. Advances in Neural Information Processing Systems, 33, 9459-9474.

2.Gao, Y., Xiong, Y., Gao, X., et al.?(2023). Retrieval-augmented generation for large language models: A survey. arXiv preprint arXiv:2312.10997.

3.Amershi, S., Weld, D., Vorvoreanu, M., et al.?(2019). Guidelines for human-AI interaction. In Proceedings of the 2019 CHI conference on human factors in computing systems (pp.?1-13).

4.Shneiderman, B. (2020). Human-centered artificial intelligence: Reliable, safe, and trustworthy. International Journal of Human–Computer Interaction, 36(6), 495-504.

5.Zaharia, M., Chen, A., Zou, J., & Stoica, I. (2023). Operationalizing large language models: An engineering view. arXiv preprint arXiv:2311.08119.

原創(chuàng)聲明:本文系煙草在線用戶原創(chuàng),所有觀點(diǎn)、分析及結(jié)論均代表作者個(gè)人立場(chǎng),與本平臺(tái)及其他關(guān)聯(lián)機(jī)構(gòu)無(wú)關(guān)。文中內(nèi)容僅供讀者參考交流,不構(gòu)成任何形式的決策建議或?qū)I(yè)指導(dǎo)。本平臺(tái)不對(duì)因依賴本文信息而產(chǎn)生的任何直接或間接后果承擔(dān)責(zé)任。

版權(quán)聲明:未經(jīng)作者書面明確授權(quán),任何單位或個(gè)人不得以任何形式(包括但不限于全文/部分轉(zhuǎn)載、摘編、復(fù)制、傳播或建立鏡像)使用本文內(nèi)容。若需轉(zhuǎn)載或引用,請(qǐng)?zhí)崆奥?lián)系煙小蜜客服(微信號(hào)tobacco_yczx)獲得許可,同時(shí)注明作者姓名及原文出處。違反上述聲明者,作者將依法追究其法律責(zé)任。

熱文榜

更多

視頻

更多

專題

分享到微信朋友圈×
打開微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁(yè)分享至朋友圈。