資料內(nèi)容:
一、LLMs 已經(jīng)具備了較強(qiáng)能力了,存在哪些不足點(diǎn)?
在 LLM 已經(jīng)具備了較強(qiáng)能力的基礎(chǔ)上,仍然存在以下問(wèn)題:
• 幻覺(jué)問(wèn)題:LLM 文本生成的底層原理是基于概率的 token by token 的形式,因此會(huì)不可避免地
產(chǎn)生“一本正經(jīng)的胡說(shuō)八道”的情況;
• 時(shí)效性問(wèn)題:LLM 的規(guī)模越大,大模型訓(xùn)練的成本越高,周期也就越長(zhǎng)。那么具有時(shí)效性的數(shù)
據(jù)也就無(wú)法參與訓(xùn)練,所以也就無(wú)法直接回答時(shí)效性相關(guān)的問(wèn)題,例如“幫我推薦幾部熱映的電
影?”;
• 數(shù)據(jù)安全問(wèn)題:通用的 LLM 沒(méi)有企業(yè)內(nèi)部數(shù)據(jù)和用戶數(shù)據(jù),那么企業(yè)想要在保證安全的前提下
使用 LLM,最好的方式就是把數(shù)據(jù)全部放在本地,企業(yè)數(shù)據(jù)的業(yè)務(wù)計(jì)算全部在本地完成。而在
線的大模型僅僅完成一個(gè)歸納的功能;
二、什么是 RAG?
RAG(Retrieval Augmented Generation, 檢索增強(qiáng)生成),即 LLM 在回答問(wèn)題或生成文本時(shí),先
會(huì)從大量文檔中檢索出相關(guān)的信息,然后基于這些信息生成回答或文本,從而提高預(yù)測(cè)質(zhì)量。