資料目錄:
1 課程介紹.mp4
2 注意力機(jī)制.mp4
3 自注意力機(jī)制.mp4
4 Transformer的架構(gòu)概述.mp4
5 Transformer Encoder的多頭注意力.mp4
6 Transformer Encoder的位置編碼.mp4
7 Transformer 殘差鏈接、LayerNorm、FFN.mp4
8 Transformer Decoder.mp4
9 Transformer 訓(xùn)練及性能.mp4
10 Transformer機(jī)器翻譯工作流程.mp4
11 Transformer的Encoder代碼解讀.mp4
12 Transformer的Decoder代碼解讀.mp4
13 Transformer的超參設(shè)置代碼解讀.mp4
14 Transformer的訓(xùn)練示例(人為隨機(jī)數(shù)據(jù))代碼解讀.mp4
15 Transformer的訓(xùn)練示例(德語(yǔ)-英語(yǔ)機(jī)器翻譯)代碼解.mp4
16 結(jié)合中文注釋代碼深入解讀1.mp4
17 結(jié)合中文注釋代碼深入解讀2.mp4
18 LLM推理方式.mp4
19 文本生成模式.mp4
20 文本生成策略.mp4
21 Token和分詞器.mp4
22 文本生成過(guò)程.mp4
23 prefill和解碼階段.mp4
24 llama3文本生成過(guò)程.mp4
25 文本生成時(shí)的QKV含義.mp4
26 大模型開(kāi)發(fā)階段劃分.mp4
27 SFT微調(diào).mp4
28 微調(diào)方法(全參、凍結(jié)參數(shù)、LoRA、QLoRA).mp4
29 LoRA微調(diào).mp4
30 QLoRA微調(diào).mp4
31 llama模型進(jìn)化史.mp4
32 llama3模型類型.mp4
33 llama大模型生態(tài).mp4
34 llama3模型架構(gòu).mp4
35 RMSNorm歸一化.mp4
36 SwiGLU激活函數(shù).mp4
37 RoPE旋轉(zhuǎn)位置編碼.mp4
38 GQA分組查詢注意力.mp4
39 KVCache.mp4
40 各文件功能.mp4
41 completion和chat應(yīng)用腳本代碼解析.mp4
42 generation.py代碼解析.mp4
43 model.py代碼解析.mp4
44 tokenizer.py代碼解析.mp4
45 RMSNorm代碼解析.mp4
46 SwiGLU代碼解析.mp4
47 GQA代碼解析.mp4
48 RoPE代碼解析.mp4
49 KVCache代碼解析.mp4
50 阿里云實(shí)例創(chuàng)建.mp4
51 ollama介紹.mp4
52 ollama安裝.mp4
53 llama3推理.mp4
54 vLLM部署llama3.mp4
55 llama_factory介紹.mp4
56 llama_factory安裝及l(fā)lama3模型下載.mp4
57 LoRA微調(diào)訓(xùn)練.mp4
58 llama3中文增強(qiáng)大模型推理.mp4
59 llama3中文增強(qiáng)大模型評(píng)估.mp4
60 lora文件合并.mp4
61 數(shù)據(jù)集準(zhǔn)備.mp4
62 lora 微調(diào).mp4
63 llama3醫(yī)療問(wèn)答大模型推理.mp4
64 qlora微調(diào) .mp4
65 qlora微調(diào)的醫(yī)療問(wèn)答大模型推理.mp4
課件資料.7z