【资源目录】:


├──01大模型(LLMs)基础面

| ├──01大模型(LLMs)基础面[].pdf 802.13kb

| ├──02Layer normalization 篇[].pdf 427.31kb

| ├──03LLMs 激活函数篇[].pdf 361.32kb

| ├──04Attention 升级面[].pdf 374.18kb

| ├──05transformers 操作篇[].pdf 193.65kb

| ├──06LLMs 损失函数篇[].pdf 1.01M

| └──07相似度函数篇[].pdf 140.97kb

├──02大模型(LLMs)进阶面

| └──大模型(LLMs)进阶面[].pdf 3.66M

├──03大模型(LLMs)微调面

| ├──1大模型(LLMs)微调面[].pdf 14.01M

| ├──2大模型 SFT Trick 篇[].pdf 3.52M

| └──3LLMs 训练经验帖[].pdf 246.24kb

├──04大模型(LLMs)langchain 面

| ├──1大模型(LLMs)langchain 面[].pdf 606.63kb

| ├──2多轮对话中让AI保持长期记忆的8种优化方式篇[].pdf 306.80kb

| └──3基于langchain RAG问答应用实战[].pdf 342.43kb

├──05大模型 RAG 经验面

| ├──10大模型(LLMs)RAG 优化策略 —— RAG-Fusion篇[].pdf 1.46M

| ├──11Graph RAG 面 — 一种 基于知识图谱的大模型检索增强实现策略[].pdf 944.78kb

| ├──1大模型 RAG 经验面[].pdf 4.24M

| ├──2LLM文档对话 —— pdf解析关键问题[].pdf 2.09M

| ├──3大模型(LLMs)RAG 版面分析——表格识别方法篇[].pdf 975.86kb

| ├──4大模型(LLMs)RAG 版面分析——文本分块面[].pdf 493.11kb

| ├──5大模型外挂知识库优化——如何利用大模型辅助召回?[].pdf 957.61kb

| ├──6大模型外挂知识库优化——负样本样本挖掘篇[].pdf 1.72M

| ├──7RAG(Retrieval-Augmented Generation)评测面[].pdf 997.51kb

| ├──8检索增强生成(RAG) 优化策略篇[].pdf 4.10M

| └──9大模型(LLMs)RAG —— 关键痛点及对应解决方案[].pdf 1.28M

├──06大模型(LLMs)参数高效微调(PEFT) 面

| ├──1大模型(LLMs)参数高效微调(PEFT) 面[].pdf 1.49M

| ├──2适配器微调(Adapter-tuning)篇[].pdf 415.83kb

| ├──3提示学习(Prompting)篇[].pdf 2.80M

| ├──4LoRA 系列常见面试题篇[].pdf 5.04M

| ├──5如何使用 PEFT库 中 LoRA?[].pdf 665.60kb

| └──6大模型 SFT 方式对比篇[].pdf 1.70M

├──07大模型(LLMs)推理面

| └──大模型(LLMs)推理面[].pdf 2.73M

├──08大模型(LLMs)增量预训练篇

| ├──1大模型(LLMs)增量预训练篇[].pdf 3.72M

| ├──2大模型(LLMs)推理加速篇[].pdf 3.08M

| ├──3增量预训练(Pretrain)样本拼接篇[].pdf 527.33kb

| └──4基于lora的llama2二次预训练[].pdf 2.22M

├──09大模型(LLMs)评测面

| └──大模型(LLMs)评测面[].pdf 1.16M

├──10大模型(LLMs)强化学习面

| ├──1大模型(LLMs)强化学习面[].pdf 1.48M

| ├──2大模型(LLMs)强化学习——RLHF及其变种面[].pdf 2.39M

| ├──3大模型(LLMs)强化学习—— PPO 面[].pdf 806.26kb

| ├──4RLHF平替算法DPO篇[].pdf 2.15M

| └──5强化学习在自然语言处理下的应用篇[].pdf 1.04M

├──11大模型(LLMs)训练集面

| ├──1大模型(LLMs)训练集面[].pdf 643.65kb

| └──2大模型(LLMs)LLM生成SFT数据方法面[].pdf 825.42kb

├──12大模型(LLMs)显存问题面

| ├──1大模型(LLMs)显存问题面[].pdf 469.56kb

| └──2显存优化策略篇[].pdf 502.51kb

├──13大模型(LLMs)分布式训练面

| ├──10大模型分布式训练故障恢复篇[].pdf 242.46kb

| ├──11pytorch 分布式计算 坑_bug 梳理篇[].pdf 637.73kb

| ├──1大模型(LLMs)分布式训练面[].pdf 1.53M

| ├──2图解分布式训练(一) —— 流水线并行(Pipeline Parallelism)[].pdf 1.42M

| ├──3图解分布式训练(二) —— nn.DataParallel篇[].pdf 761.41kb

| ├──4图解分布式训练(三) —— nn.parallel.DistributedDataParallel[].pdf 978.93kb

| ├──5图解分布式训练(四) —— torch.multiprocessing 详细解析[].pdf 237.77kb

| ├──6图解分布式训练(五) —— AMP混合精度训练 详细解析[].pdf 809.27kb

| ├──7图解分布式训练(六)—— Pytorch的 DeepSpeed 详细解析[].pdf 3.49M

| ├──8图解分布式训练(七)—— accelerate 分布式训练 详细解析[].pdf 613.17kb

| └──9图解分布式训练(八)—— ZeRO 学习[].pdf 2.10M

├──14大模型(LLMs)agent 面

| ├──1大模型(LLMs)agent 面[].pdf 1.24M

| └──2AI Agent 面 —— 函数调用 Function Call 篇[].pdf 1.03M

├──15LLMs 位置编码篇

| └──LLMs 位置编码篇[].pdf 1.45M

├──16LLMs Tokenizer 常见面试篇

| ├──1LLMs Tokenizer 常见面试篇[].pdf 3.14M

| ├──2怎么让英文大语言模型支持中文?(一) —— 构建中文tokenization[].pdf 624.03kb

| ├──3怎么让英文大语言模型支持中文?(二) —— 继续预训练篇[].pdf 899.44kb

| └──4怎么让英文大语言模型支持中文?(三) —— 对预训练模型进行指令微调[].pdf 368.73kb

├──17大模型(LLM)部署框架对比篇

| ├──1大模型(LLM)部署框架对比篇[].pdf 3.32M

| ├──2大模型(LLMs)加速篇[].pdf 300.36kb

| ├──3LLMs 推理性能面[].pdf 303.04kb

| ├──4LLM(大语言模型)部署加速方法——PagedAttention篇[].pdf 845.93kb

| ├──5大模型推理加速工具 —— vLLM[].pdf 1.05M

| ├──6LLM(大语言模型)部署加速方法——Faster Transformer篇[].pdf 602.24kb

| ├──7纯Python超轻量高性能LLM推理框架 —— LightLLM[].pdf 706.47kb

| ├──8LLM推理技术之StreamingLLM:如何拥有无限长生成能力[].pdf 1.30M

| └──9SwiftInfer —— 大模型无限流式输入推理飙升46%,打破多轮对话长度限制[].pdf 883.63kb

├──18大模型幻觉(LLM Hallucination)面

| ├──1大模型幻觉(LLM Hallucination)面[].pdf 816.72kb

| ├──2大模型的幻觉问题篇[].pdf 412.49kb

| └──3如何缓解大模型幻觉?[].pdf 287.74kb

├──19LLMs 对比篇

| ├──1LLMs 对比篇[].pdf 3.03M

| ├──2大模型-attention mask 篇[].pdf 96.89kb

| ├──3百川智能baichuan7B、13B、53B、baichuan2 总结篇[].pdf 1.05M

| ├──4LLaMA 常见面试题篇[].pdf 244.44kb

| └──5GPT 经验篇[].pdf 513.31kb

├──20思维链 Chain-of-Thought(COT)篇

| ├──1思维链 Chain-of-Thought(COT)篇[].pdf 1.47M

| ├──2思维链 Chain-of-Thought(COT)变体篇[].pdf 4.75M

| └──3小样本提示学习篇[].pdf 585.07kb

├──21LLMs 测试集 中 数据泄露 问题篇

| └──LLMs 测试集 中 数据泄露 问题篇[].pdf 493.82kb

├──22MOE(Mixture-of-Experts)篇

| ├──1MOE(Mixture-of-Experts)篇[].pdf 1.43M

| └──2MOE大模型对比篇[].pdf 1.15M

├──23大模型蒸馏篇

| ├──1大模型蒸馏篇[].pdf 449.94kb

| ├──2LLMs 浮点数篇[].pdf 165.33kb

| └──3自定义 CUDA 函数的轻量级包装器 —— bitsandbytes篇[].pdf 206.47kb

├──24大模型(LLMs)软硬件配置面

| └──大模型(LLMs)软硬件配置面[].pdf 78.86kb

├──25Token及模型参数准备篇

| └──Token及模型参数准备篇[].pdf 105.96kb

├──26多模态常见面试篇

| └──多模态常见面试篇[].pdf 356.17kb

├──27NLP常见面试篇

| ├──1NLP Trick 篇[].pdf 126.55kb

| ├──2文本分类常见面试篇[].pdf 629.46kb

| ├──3文本摘要常见面试篇[].pdf 367.42kb

| ├──4命名实体识别常见面试篇[].pdf 457.79kb

| └──5向量检索常见面试篇[].pdf 327.03kb

├──28其他常见面试篇

| └──LLMs 其他 Trick[].pdf 238.08kb

├──29大模型推理加速——KV Cache篇

| └──大模型推理加速——KV Cache篇[].pdf 2.67M

├──30大模型——角色扮演大模型篇

| └──大模型——角色扮演大模型篇[].pdf 2.26M

└──LLMs 目录[].pdf 1.59M



声明:猿学谷是一个资源分享和技术交流平台,本站所发布的一切视频,文章,软件,书籍资源仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络以及用户发布,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如若本站内容侵犯了原著者的合法权益,可联系我们QQ客服 3863518080 进行处理。