LLM张老师学堂-2024版零基础学习LLM大模型(点击可折叠)
  • 01_正课《LLM从零到一》概念学习精华版
    • 课程课件原图.zip
    • 高清课程视频
      • 【01】大模型实际上就是两个文件 .mp4
      • 【02】大语言模型是什么 .mp4
      • 【03】大模型是如何工作的 .mp4
      • 【04】OpenAI、GPT发展简史 .mp4
      • 【05】谁都能听懂的Transformer .mp4
      • 【06】大模型的Tokenization文字转数字 .mp4
      • 【07】Embedding数字变矩阵 .mp4
      • 【08】大模型的Positional Encoding给数字加位置 .mp4
      • 【09】进入注意力机制前先跟我一起过概念 .mp4
      • 【10】Transformer注意力机制的几何逻辑 .mp4
      • 【11】不需要懂的神经网络Neural Networks .mp4
      • 【12】LayerNorm及Softmax概念 .mp4
      • 【13】Transformer注意力机制的QKV和多头机制 .mp4
      • 【14】Transformer的QKV输出的到底是什么 .mp4
      • 【15】Transformer的QKV完结篇 .mp4
      • 【16】残差连接和Dropout .mp4
      • 【17】Transformer最终输出逻辑及参数量 .mp4
      • 【18】大模型推理vs.训练的相同与不同 .mp4
      • 【19】Transformer中的学习率如何理解? .mp4
      • 【20】词嵌入+位置信息的深层逻辑 .mp4
      • 【21】五分钟秒懂神经网络 .mp4
      • 【22】《线性变换的几何逻辑》 .mp4
      • 【23】《Tokenizer分词器原理》 .mp4
      • 【24】《解码策略Decoding Strategy》 .mp4
    • 长视频概念讲解系列(旧)可不听
      • 什么是大语言模型?(LLM:从零到一)【1】 .mp4
      • 大语言模型训练原理(LLM:从零到一)【2】 .mp4
      • 如何训练一个写小说的大模型【9】 .mp4
      • 嵌入向量与位置信息(LLM:从零到一)【4】 .mp4
      • 手写大模型代码(上)( LLM:从零到一)【6】 .mp4
      • 手写大模型代码(中)( LLM:从零到一)【7】 .mp4
      • 手写大模型(下) LLM:从零到一)【8】 .mp4
      • 注意力机制与输出预测(LLM:从零到一)【5】 .mp4
      • 理解大模型底层的架构-Transformer概念(LLM:从零到一)【3】 .mp4
  • 02_正课《LLM从零到一》代码实战系列
    • LLMZhang_Lessons-main.zip
    • 【10】实战II期(Train逻辑) .mp4
    • 【11】实战II期(结束总结) .mp4
    • 【1】开篇介绍 .mp4
    • 【2】准备数据集 .mp4
    • 【3】代码实现:嵌入向量——《LLM从零到一》代码实战系列 .mp4
    • 【4】代码实现:位置信息编码 .mp4
    • 【5】代码实现:注意力机制(一) .mp4
    • 【6】注意力机制(二) .mp4
    • 【7】模型预测输出 .mp4
    • 【8】模型反向更新(第一期实战完结) .mp4
    • 【9】实战II期(Model逻辑) .mp4
    • 准备数据集.zip
  • 03_正课《LLM从1到N》进阶学习精华版
    • 第0课——开篇介绍
      • 第0课——开篇介绍 .mp4
    • 第10课 Sparse Attention & Infini Attention 稀疏注意力 和无限注意力
      • 第10课 Sparse Attention & Infini Attention 稀疏注意力 和无限注意力 .mp4
    • 第11课 RoPE ALiBi YaRN各种位置信息编码讲解
      • 第11课 RoPE ALiBi YaRN等各类位置信息编码 .mp4
    • 第12课 LoRA、QLoRA 讲解
      • 第12课 LoRA、QLoRA 讲解 .mp4
    • 第13课 GPTQ、AWQ、GGUF等模型量化概念讲解
      • 第13课 GPTQ、AWQ、GGUF等模型量化Quantization概念讲解 .mp4
    • 第14课 SFT、PEFT、RLHF等模型微调原理讲解
      • 【从1到N】第14课 SFT、PEFT、RLHF等模型微调原理讲解 .mp4
      • 第14课 SFT、PEFT、RLHF等微调原理讲解.pdf
    • 第15课 如何使用HuggingFace做模型微调(上)
      • 【15模型微调(上)】 .mp4
    • 第16课 如何使用HuggingFace做模型微调(下)
      • 【16模型微调(下)】 .mp4
    • 第17课 模型微调Json格式输出的演示案例
      • 第17课 模型微调Json格式输出的演示案例(前半) .mp4
      • 第17课 模型微调Json格式输出的演示案例(后半) .mp4
    • 第1课 Scaling Law & 模型计算量介绍
      • 第1课 Scaling Law & 主要模型介绍.pdf
      • 第1课 Scaling Law & 模型计算量介绍 .mp4
    • 第22课 Whisper语音转文字模型原理介绍
      • 第22课 Whisper 语音转文字模型 .mp4
    • 第22课 Whisper语音转文字模型原理介绍_0707132357
      • 第22课 Whisper 语音转文字模型(代码演示) .mp4
      • 第22课 Whisper语音转文字模型(概念) .mp4
    • 第23课 Stable Diffusion及Sora的原理讲解
      • Sora、SD、可灵文生图视频大模型原理讲解 .mp4
    • 第2课 LLM文件组成、精度及开发流程讲解
      • 第2课 LLM文件组成、精度及开发流程讲解 .mp4
      • 第2课 LLM文件组成、精度及开发流程讲解.pdf
    • 第3课 主流LLM开发及微调框架介绍
      • 第3课 主流LLM开发及微调框架介绍 .mp4
    • 第4课 OpenAI的API及飞书机器人例子
      • 第4课 OpenAI的API及飞书机器人例子 .mp4
    • 第5课:LangChain是做什么的
      • 第5课:LangChain是做什么的 .mp4
    • 第6课:RAG的实现原理
      • 案例RAG-学员分享 .mp4
      • 第6课:RAG的实现原理 .mp4
    • 第7课 Flash Attention 讲解
      • 【第7课】Flash Attention讲解 .mp4
    • 第8课 KV Cache 讲解
      • 第8课 KV Cache讲解 .mp4
    • 第9课 MHA、MQA、GQA 讲解
      • 【第9课】MHA、MQA、GQA的讲解 .mp4
    • 04_赠课《LLM从1到N》代码实战系列
      • 【实战】中文embedding向量模型训练 .mp4
      • 实战——《如何训练自己的中文分词器》 .mp4
    • 05_赠课《Python从零到一》快速入门
      • Learn_Python_Zero2One-main.zip
      • widows10版本Transformer学习环境配置.docx
      • 第1课:Mac下我的Python环境配置 .mp4
      • 第2课:(上)如何入门写python .mp4
      • 第2课:(下)如何入门写python.mp4 .mp4
      • 第2课:(中)如何入门写python.mp4 .mp4
    • 06_赠课 LLM最新英文论文导读
      • 《Attention is all you need》论文解读 .mp4
      • 《Infini-Transformer》论文导读 .mp4
      • 《LayerNorm in Transformers’ Attention》论文解读 .mp4
      • 《OPERA – Alleviating Hallucination》论文导读 .mp4
      • 课件.zip
    • 07_赠课 直播录播视频集
      • 2024年04月05日直播录播——《Transformer框架解读及互动提问》 .mp4
      • 2024年04月13日直播录播——《HuggingFace演示》 .mp4
      • 2024年04月20日直播录播——《位置编码讲解》 .mp4
      • 2024年05月02日直播录播——《HuggingFace使用介绍》 .mp4
      • 2024年05月03日直播录播——《Transformer中的向量查找表》 .mp4
      • 2024年05月03日直播录播——《多头注意力及模型参数量探讨》 .mp4
      • 2024年05月04日直播录播——《PyTorch实践与讲解》 .mp4
      • 2024年05月04日直播录播——《模型本地及服务器部署的闲聊》 .mp4
      • 2024年06月01日直播录播——《数据集准备及数据清洗的一些分享》 .mp4
      • 2024年4月13日直播录播——《transformer架构高度概括》 .mp4
      • 2024年5月18日直播录播——《transformer各模块作用和基础知识》 .mp4
      • 2024年5月25日直播录播——《8xA100+DeepSpeed配置演示》 .mp4
      • 2024年6月15日直播录播——《两种多头切分方法讨论、及B站1.9B模型架构阅读》 .mp4
      • 2024年6月22日直播录播——《如何训练自己的中文分词器》 .mp4
      • 2024年6月29日直播录播——《transformer怎么学》和《模型部署方式》 .mp4
      • 2024年6月8日直播录播——《大模型用到的线性代数4个基本概念》 .mp4
    • Karpathy最新开源llm.c
      • Karpathy最新开源llm.c新鲜尝试 .mp4
      • llm.c.rar
    • 08_总结资料
      • 总结资料.zip
    • 09_杂项
      • KAN vs MLP网络理解.mov

    隐藏内容
    本内容需权限查看
    • 普通用户: 99金币
    • 代理: 免费
    • 永久至尊会员: 免费
    已有5人解锁查看

 

主题授权提示:请在后台主题设置-主题授权-激活主题的正版授权,授权购买:RiTheme官网

本站所有资料均来源与网络以及用户发布,如对资源有争议请联系微信客服我们可以安排下架!