https://github.com/baisongt/pytorch_learn
pytorch学习, 张量,机器学习,深度学习,Transformer ...
https://github.com/baisongt/pytorch_learn
pytorch pytorch-tutorial transformer-tutorial
Last synced: 6 months ago
JSON representation
pytorch学习, 张量,机器学习,深度学习,Transformer ...
- Host: GitHub
- URL: https://github.com/baisongt/pytorch_learn
- Owner: BaiSongt
- License: mit
- Created: 2025-09-10T07:23:28.000Z (6 months ago)
- Default Branch: main
- Last Pushed: 2025-09-10T08:39:19.000Z (6 months ago)
- Last Synced: 2025-09-10T12:04:31.049Z (6 months ago)
- Topics: pytorch, pytorch-tutorial, transformer-tutorial
- Language: Python
- Homepage:
- Size: 196 KB
- Stars: 0
- Watchers: 0
- Forks: 0
- Open Issues: 0
-
Metadata Files:
- Readme: README.md
- License: LICENSE
Awesome Lists containing this project
README
# PyTorch 学习仓库
---
# 第一周:PyTorch 基础与机器学习
## 1. PyTorch 基础 (2天)
- PyTorch 张量操作与计算
- 自动求导机制(Autograd)
- Dataset 与 DataLoader
- 基础网络构建
- GPU 加速训练
## 2. 机器学习基础 (3天)
- 线性回归实现
- 逻辑回归分类
- 支持向量机(SVM)
- 决策树与随机森林
- 模型评估与调优
# 第二周:深度学习基础
## 1. 神经网络基础 (2天)
- 感知机与多层神经网络
- 激活函数与反向传播
- 损失函数与优化器
- Dropout 与 BatchNorm
- 卷积神经网络(CNN)
## 2. 深度学习实践 (3天)
- 图像分类实战
- 目标检测入门
- 循环神经网络(RNN/LSTM)
- 序列数据处理
- 模型部署基础
# 第三周:Transformer与预训练模型
## 1. Transformer架构 (3天)
- 注意力机制原理
- Transformer编码器/解码器
- 位置编码与多头注意力
- BERT/GPT模型原理
- 预训练模型使用
## 2. 预训练模型实践 (2天)
- HuggingFace使用
- 文本分类与序列标注
- 模型微调技术
- 知识蒸馏基础
# 第四周:生成式AI与工程实践
## 1. 生成式AI (3天)
- Diffusion模型原理
- Stable Diffusion实践
- LLM推理与部署
- RLHF基础
## 2. 工程实践 (2天)
- 分布式训练
- 混合精度训练
- 模型量化与优化
- 生产环境部署
- 项目实战演练
## 额外资源
- 推荐书籍与教程
- 常用数据集整理
- 优质项目参考
- 性能优化指南