Python知識(shí)分享網(wǎng) - 專業(yè)的Python學(xué)習(xí)網(wǎng)站 學(xué)Python,上Python222
大模型 RAG 經(jīng)驗(yàn)面 PDF 下載
匿名網(wǎng)友發(fā)布于:2025-04-04 11:31:13
(侵權(quán)舉報(bào))
(假如點(diǎn)擊沒(méi)反應(yīng),多刷新兩次就OK!)

大模型 RAG 經(jīng)驗(yàn)面 PDF 下載  圖1

 

 

資料內(nèi)容:

 

一、LLMs 已經(jīng)具備了較強(qiáng)能力了,存在哪些不足點(diǎn)?

 

LLM 已經(jīng)具備了較強(qiáng)能力的基礎(chǔ)上,仍然存在以下問(wèn)題:
 
幻覺(jué)問(wèn)題LLM 文本生成的底層原理是基于概率的 token by token 的形式,因此會(huì)不可避免地
產(chǎn)生一本正經(jīng)的胡說(shuō)八道的情況;
時(shí)效性問(wèn)題LLM 的規(guī)模越大,大模型訓(xùn)練的成本越高,周期也就越長(zhǎng)。那么具有時(shí)效性的數(shù)
據(jù)也就無(wú)法參與訓(xùn)練,所以也就無(wú)法直接回答時(shí)效性相關(guān)的問(wèn)題,例如幫我推薦幾部熱映的電
影?
數(shù)據(jù)安全問(wèn)題:通用的 LLM 沒(méi)有企業(yè)內(nèi)部數(shù)據(jù)和用戶數(shù)據(jù),那么企業(yè)想要在保證安全的前提下
使用 LLM,最好的方式就是把數(shù)據(jù)全部放在本地,企業(yè)數(shù)據(jù)的業(yè)務(wù)計(jì)算全部在本地完成。而在
線的大模型僅僅完成一個(gè)歸納的功能;

 

二、什么是 RAG?
RAGRetrieval Augmented Generation, 檢索增強(qiáng)生成),即 LLM 在回答問(wèn)題或生成文本時(shí),先
會(huì)從大量文檔中檢索出相關(guān)的信息,然后基于這些信息生成回答或文本,從而提高預(yù)測(cè)質(zhì)量。