資料目錄:
├─第一階段 大模型頂尖架構(gòu)原理精講
│ 00 不同基礎(chǔ)不同目標的學(xué)習(xí)路徑規(guī)劃.mp4
│ 【Transformer】1 Transformer與注意力機制入門.mp4
│ 【Transformer】2 Attention注意力機制的本質(zhì).mp4
│ 【Transformer】3 Transformer中的注意力計算流程 & 多頭注意力機制.mp4
│ 【Transformer】4 Transformer的基本架構(gòu).mp4
│ 【Transformer】5 Embedding與位置編碼.mp4
│ 【Transformer】6 正余弦編碼的數(shù)學(xué)與實用意義.mp4
│ 【Transformer】7 正余弦編碼的實際計算與高維空間可視化.mp4
│ 【Transformer】8 編碼器結(jié)構(gòu)詳解之殘差鏈接.mp4
│ 【Transformer】9 編碼器結(jié)構(gòu)詳解之Layer Normalization.mp4
│ 【Transformer】10 編碼器結(jié)構(gòu)詳解之前饋神經(jīng)網(wǎng)絡(luò)FFN.mp4
│ 【Transformer】11 完整Transformer結(jié)構(gòu)下的解碼器Decoder.mp4
│ 【Transformer】12 Decoder的輸入與teacher forcing.mp4
│ 【Transformer】13 掩碼與掩碼注意力機制.mp4
│ 【Transformer】14 填充掩碼與前瞻掩碼的實現(xiàn).mp4
│ 【Transformer】15 編碼-解碼注意力層.mp4
│ 【Transformer】16 Decoder-Only結(jié)構(gòu)下的Decoder.mp4
│ 【LLaMA】1 LLaMA中的Decoder架構(gòu)詳解.mp4
│ 【LLaMA】2 LLaMA中的Embedding層.mp4
│ 【LLaMA】3 RMSNorm均方根層歸一化.mp4
│ 【LLaMA】4 旋轉(zhuǎn)位置編碼ROPE.mp4
│ 【LLaMA】4.5 旋轉(zhuǎn)位置編碼的Q&A.mp4
│ 【LLaMA】5 KV緩存的原理與初步實現(xiàn).mp4
│ 【LLaMA】5.5 時間復(fù)雜度、機器翻譯等Q&A.mp4
│ 【LLaMA】原理與架構(gòu)復(fù)現(xiàn) Part 2.mp4
│ 【LLaMA】原理與架構(gòu)復(fù)現(xiàn) Part 3.mp4
│ 【LLaMA】原理與架構(gòu)復(fù)現(xiàn) Part 4.mp4
│
├─【贈送】10小時NLP高效入門
│ 01_【神經(jīng)網(wǎng)絡(luò)入門】1 SSE與二分類交叉熵損失.mp4
│ 02_【神經(jīng)網(wǎng)絡(luò)入門】2 二分類交叉熵的原理與實現(xiàn).mp4
│ 03_【神經(jīng)網(wǎng)絡(luò)入門】3 多分類交叉熵的原理與實現(xiàn).mp4
│ 04_【DNN】1 梯度下降中的兩個關(guān)鍵問題.mp4
│ 05_【DNN】2.1 反向傳播的原理.mp4
│ 06_【DNN】2.2 反向傳播的實現(xiàn).mp4
│ 07_【DNN】3 走出第一步:動量法Momentum.mp4
│ 08_【DNN】4 開始迭代:batch與epochs.mp4
│ 09_【DNN】5.1 在Fashion-MNIST數(shù)據(jù)集上實現(xiàn)完整的神經(jīng)網(wǎng)絡(luò)(上).mp4
│ 10_【DNN】5.2 在Fashion-MNIST數(shù)據(jù)集上實現(xiàn)完整的神經(jīng)網(wǎng)絡(luò)(下).mp4
│ 11_【RNN】1.1 歡迎來到NLP的世界.mp4
│ 12_【RNN】1.2 大模型的行業(yè)影響與發(fā)展.mp4
│ 13_【RNN】2.1 深度學(xué)習(xí)中的時間序列數(shù)據(jù).mp4
│ 14_【RNN】2.2 文字序列數(shù)據(jù) - 結(jié)構(gòu)與分詞操作.mp4
│ 15_【RNN】2.3 文字序列數(shù)據(jù) - Token與編碼.mp4
│ 16_【RNN】3.1~3.2 RNN的架構(gòu)與數(shù)據(jù)流.mp4
│ 17_【RNN】3.3 各類NLP任務(wù)下循環(huán)神經(jīng)網(wǎng)絡(luò)的輸入與輸出.mp4
│ 18_【RNN】3.4.1 認識PyTorch中nn.RNN層.mp4
│ 19_【RNN】3.4.2 在PyTorch中實現(xiàn)RNN.mp4
│ 20_【RNN】3.4.3 深度神經(jīng)網(wǎng)絡(luò)的實現(xiàn).mp4
│ 21_【RNN】3.4.4 自定義循環(huán)層中的循環(huán)數(shù)據(jù)流.mp4
│ 22_【RNN】3.4.5 雙向循環(huán)神經(jīng)網(wǎng)絡(luò).mp4
│ 23_【RNN】3.4.6【加餐】手動實現(xiàn)RNN執(zhí)行情感分類任務(wù).mp4
│ 24_【RNN】3.4.7【加餐】手動實現(xiàn)RNN執(zhí)行文本生成任務(wù).mp4
│ 25_【RNN】3.5.1 RNN反向傳播的數(shù)學(xué)流程.mp4
│ 26_【RNN】3.5.2 RNN各類缺陷的數(shù)學(xué)本質(zhì).mp4
│
├─【贈送】2小時從0到1訓(xùn)練LlaMA模型
│ 01 環(huán)境準備與算力準備.mp4
│ 02 預(yù)訓(xùn)練微調(diào)數(shù)據(jù)集準備.mp4
│ 03 訓(xùn)練定制化Tokenizer.mp4
│ 04 llama-like模型的預(yù)訓(xùn)練(上).mp4
│ 05 llama-like模型的預(yù)訓(xùn)練(下).mp4
│ 06 指令微調(diào) + 結(jié)果展示.mp4
│
├─【贈送】python基礎(chǔ)
│ Lesson 1.Hello World!.mp4
│ Lesson 2.數(shù)值型對象的創(chuàng)建.mp4
│ Lesson 3.數(shù)值型對象的科學(xué)運算.mp4
│ Lesson 4.布爾型對象.mp4
│ Lesson 5.字符串型對象的創(chuàng)建.mp4
│ Lesson 6.字符串索引.mp4
│ Lesson 7.字符串的常用方法(一).mp4
│ Lesson 8.字符串常用方法(二).mp4
│ Lesson 9.列表對象的創(chuàng)建與索引.mp4
│ Lesson 10.列表的常用方法(一).mp4
│ Lesson 11.列表常用方法(二).mp4
│ Lesson 12.元組對象的創(chuàng)建與索引.mp4
│ Lesson 13.元組的常用方法.mp4
│ Lesson 14.字典對象的創(chuàng)建與索引.mp4
│ Lesson 15.字典的常用方法.mp4
│ Lesson 16.集合的創(chuàng)建(新).mp4
│ Lesson 17.集合的常用方法(新).mp4
│ Lesson 18.凍集合的創(chuàng)建與使用.mp4
│ Lesson 19.控制語句(一):判別語句.mp4
│ Lesson 20.控制語句(二):循環(huán)語句.mp4
│ Lesson 21.控制語句(三):條件循環(huán).mp4
│ Lesson 22.函數(shù)(一):函數(shù)的使用.mp4
│ Lesson 23.函數(shù)(二):函數(shù)的參數(shù).mp4
│ Lesson 24.函數(shù)(三):變量作用域與lambda函數(shù).mp4
│ Lesson 25.類的創(chuàng)建.mp4
│ Lesson 26.類的方法和繼承.mp4
│ Lesson 27.NumPy基礎(chǔ).mp4
│ Lesson 28.NumPy數(shù)組的常用方法.mp4
│ Lesson 29.NumPy的廣播與科學(xué)計算.mp4
│ Lesson 30.Pandas入門.mp4
│ Lesson 31.DataFrame數(shù)據(jù)結(jié)構(gòu)基礎(chǔ).mp4
│
├─【贈送】大模型入門基礎(chǔ)
│ 01_【預(yù)習(xí)課】Lesson 1 谷歌郵箱Gmail注冊.mp4
│ 02_【預(yù)習(xí)課】Lesson 2 OpenAI賬號注冊.mp4
│ 03_【預(yù)習(xí)課】Lesson 3 ChatGPT Plus升級流程.mp4
│ 04_【預(yù)習(xí)課】Lesson 4 ChatGPT防封指南.mp4
│ 05_Ch 1.1 OpenAI官網(wǎng)使用說明.mp4
│ 06_Ch 1.2 本地調(diào)用OpenAI API方法.mp4
│ 07_Ch 2.1 Completion模型與Chat模型介紹.mp4
│ 08_Ch 2.2 Completion.create函數(shù)參數(shù)詳解.mp4
│ 09_Ch 2.3 Completion.create函數(shù)調(diào)參數(shù)實踐.mp4
│ 10_Ch 2.4手動創(chuàng)建可調(diào)節(jié)對話風(fēng)格的對話機器人創(chuàng)建.mp4
│ 11_Ch 3.1 大語言模型原生能力與涌現(xiàn)能力介紹.mp4
│ 12_Ch 3.2 提示工程技術(shù)入門.mp4
│ 13_Ch 4.1 One-shot&Few-shot提示方法.mp4
│ 14_Ch 4.2 Zero-shot-CoT提示法(新).mp4
│ 15_Ch 4.3Few-shot-CoT提示法.mp4
│ 16_Ch 4.4 LtM提示方法.mp4
│ 17_Ch 5.1 SCAN指令翻譯項目介紹與數(shù)據(jù)集準備.mp4
│ 18_Ch 5.2 針對SCAN數(shù)據(jù)集的Few-shot-LtM提示工程流程.mp4
│ 19_Ch 5.3 SCAN指令翻譯項目完整建模流程.mp4
│ 20_Ch 6.1 Chat Completion模型背景介紹.mp4
│ 21_Ch 6.2 Chat Completion模型發(fā)展現(xiàn)狀.mp4
│ 22_Ch 7.1 Chat Completion模型API詳解.mp4
│ 23_Ch 7.2 Messages參數(shù)設(shè)置技巧.mp4
│ 24_Ch 7.3 基于特定知識的簡易問答機器人創(chuàng)建方法.mp4
│
└─【贈送】大模型必備PyTorch基礎(chǔ)
Lesson 1 張量的創(chuàng)建與常用方法.mp4
Lesson 2 張量的索引、分片、合并及維度調(diào)整.mp4
Lesson 3 張量的廣播和科學(xué)運算.mp4
Lesson 4 張量的線性代數(shù)運算.mp4
Lesson 5 基本優(yōu)化方法與最小二乘法.mp4
Lesson 6 動態(tài)計算圖與梯度下降入門.mp4
Lesson 7.1 神經(jīng)網(wǎng)絡(luò)的誕生與發(fā)展.mp4
Lesson 7.2 機器學(xué)習(xí)中的基本概念.mp4
Lesson 7.3 深入理解PyTorch框架.mp4
Lesson 8.1單層回歸神經(jīng)網(wǎng)絡(luò) & Tensor新手避坑指南.mp4
Lesson 8.2 torch.nn.Linear實現(xiàn)單層回歸網(wǎng)絡(luò)的正向傳播.mp4
Lesson 8.3 二分類神經(jīng)網(wǎng)絡(luò)的原理與實現(xiàn).mp4
Lesson 8.4 torch.nn.functional實現(xiàn)單層二分類網(wǎng)絡(luò)的正向傳播.mp4
Lesson 8.5 多分類神經(jīng)網(wǎng)絡(luò).mp4
Lesson 9.1 從異或門問題認識多層神經(jīng)網(wǎng)絡(luò).mp4
Lesson 9.2 黑箱:深度神經(jīng)網(wǎng)絡(luò)的不可解釋性.mp4
Lesson 9.3 & 9.4 層與激活函數(shù).mp4
Lesson 9.5 從0實現(xiàn)深度神經(jīng)網(wǎng)絡(luò)的正向傳播.mp4