下面这份 Roadmap 把”全栈 → 人工智能算法工程师”拆成 6 个阶段,每阶段给出:
① 必须掌握的理论点(数学+算法)
② 对应代码实践(PyTorch 为主,穿插 NumPy/Pandas/Transformers)
③ 推荐资源(书+公开课+ paper 速读清单)
④ 可落地的里程碑项目(直接写进简历)
整体节奏:边上班边学 8~10 个月,每周 10 h 左右;脱产可压缩到 4~5 个月。
阶段 0 环境 & 工程底座(3 天)
目标:让 Python 科学栈跑起来,把 JupyterLab 变成你的“新 IDE”。
任务清单
- 安装 Miniconda + PyTorch 2.x(CUDA 11.8/12.x)
- 配好 VS Code Remote + Jupyter Lab + Black 自动格式化
- 复刻一次 Kaggle Titanic(纯 Pandas/Scikit-learn),提交分数 ≥ 0.79
里程碑:把 notebook 转成.py+hydra配置管理,推到 GitHub,Actions 能跑通 CI(lint + 单测)。
阶段 1 数学地基(3 周)
理论点
- 线性代数:SVD、特征分解、PCA 推导、矩阵微积分(向量对向量求导)
- 概率论:极大似然、贝叶斯、共轭先验、KL 散度
- 优化:凸 vs 非凸、梯度下降收敛定理、Adam 公式推导、Lagrange 对偶
资源 - 《Mathematics for ML》M. Deisenroth(免费 PDF)→ 做课后题
- 3Blue1Brown 线性代数 + 概率视频(2 倍速刷)
代码实践 - 纯 NumPy 实现 PCA 并可视化 MNIST 降维结果
- 手写 Logistic 回归 + SGD,对比 sklearn 结果,权重差 < 1e-3
里程碑:把上述两个实验写成博客(公式 LaTeX + 代码双栏),PR 到开源笔记库。
阶段 2 传统机器学习(4 周)
理论点
- 偏差–方差分解、正则化几何解释、核技巧、集成原理(Bagging/Boosting/Stacking)
- 指标:ROC-AUC、F1、log-loss、MAE/RMSE、cross-entropy
- 调参:网格→随机→贝叶斯优化(optuna)
资源 - 课:Coursera ML(Andrew Ng)→ 只刷代码作业,向量版
- 书:《Hands-On ML》第 2 版 → 每章跑一遍,用 joblib 存 pipeline
项目 - Kaggle “House Prices” 进 Top 10 %(≈ 0.13 RMSLE)
- 公司数据集:用 LightGBM 做流失预测,AUC 提升 baseline 8 % 以上
里程碑:把最优模型打包成 REST 服务(FastAPI + Gunicorn),Docker 镜像 < 300 MB,写 Swagger 文档。
阶段 3 深度学习核心(6 周)
理论点
- 反向传播自动微分、激活函数饱和区、BatchNorm 原理、残差块数学解释
- 优化器:Momentum、AdamW、LARS、Lookahead
- 正则化:Dropout、Label Smoothing、Mixup、Early Stopping 策略
- CNN:卷积算术、转置卷积、感受野计算、轻量化(Depthwise Separable)
- RNN/LSTM/GRU 梯度流、Seq2Seq + Attention 推导
资源 - 课:CS231n 2023 版(只看 Lecture 1-10 + Assignment 1-3)
- 书:《Deep Learning》Goodfellow → 选读 6-10 章
- Paper:LeNet-5 → AlexNet → VGG → ResNet,每篇手写核心公式
代码 - 纯 PyTorch 实现 ResNet-18,在 CIFAR-10 上 94 % 精度
- 用 LSTM 做中文古诗生成(字符级),BLEU-3 > 0.6
里程碑:把 ResNet-18 蒸馏到 MobileNetV2,参数减半,精度掉 < 1 %,用 TorchScript 导出.pt并在 Android 端跑通。
阶段 4 前沿方向选专精(任选 1-2 条支线,8 周)
支线 A CV 专精
- 目标检测:YOLOv8 原理 + CIoU loss,训练自定义 3 类目标,mAP50>0.75
- 语义分割:U-Net/DeeplabV3+,用 Albumentations 做强增强
- 部署:ONNX → TensorRT FP16,推理提速 3×
支线 B NLP 专精
- Transformer 手推 QKV、位置编码、掩码矩阵
- 预训练:用 HuggingFace Trainer 做 RoBERTa 中文继续预训练(MLM),语料 5 GB,loss 降到 1.8
- 微调:NER 任务(BIO 标注),F1>0.92;再用 LoRA 参数高效微调,显存省 40 %
支线 C 多模态/生成式
- CLIP 对比学习 + 图文检索 Recall@5>0.9
- Stable Diffusion v2 微调:DreamBooth 10 张图训练个人风格,CLIP score>0.82
- RLHF:用 trlX 给 1.3 B 小模型做三阶段训练, Reward Model acc>0.85
资源
- Papers With Code 刷 SOTA,每周复现一篇
- 课:Stanford CS25/CS330(Transformers/VLM)
里程碑:选定的支线在公开数据集上复现 SOTA 90 % 效果,并写技术报告发 arXiv 预印(可非官方)。
阶段 5 MLOps & 工程落地(4 周)
理论点
- 数据版本控制:DVC、LakeFS
- 实验跟踪:MLflow、Weights & Biases
- 持续训练:Airflow/Prefect 调度特征漂移检测→重训练→自动回滚
- 模型监控:PSI/CSI、latency P99、GPU 利用率
- 服务化:TorchServe / Triton Inference Server,gRPC + 批处理动态 batching
项目 - 把阶段 3 的模型接入 Kafka 流,每 10 min 批预测一次,灰度发布;回滚窗口 < 5 min
- 用 Terraform 在 AWS EKS 起 GPU 节点组,Spot 实例成本降 60 %,自动伸缩
里程碑:向公司技术博客投稿《某业务从离线到实时 GPU 推理的 99.9 % 可用性实践》,附 Grafana 大盘截图。
阶段 6 面试 & 社区影响力(持续)
- 刷题:
– 算法:LeetCode Top 100 高频
– ML 系统设计:Instagram 推荐流、YouTube 视频召回/排序、滴滴 ETA 估计(参考《Machine Learning System Design Interview》) - 简历项目包装公式:业务背景→数据规模→模型→指标提升→工程亮点→业务落地收益
- 开源:给 HuggingFace / PyTorch Lightning 提 PR,累计 merged ≥ 3 次
- 会议:投 ACL/NeurIPS Workshop 应用 Track,或国内 CCF B 类会议工业 Track
时间线速览(兼职版)
月份 1 阶段 0-1
月份 2 阶段 2
月份 3-4 阶段 3
月份 5-6 阶段 4 选支线 A/B/C
月份 7 阶段 5 MLOps
月份 8 面试冲刺 + 社区贡献
一句话总结
“数学打底 → 经典 ML 打怪 → DL 主线副本 → 专精方向刷 SOTA → MLOps 落地 → 开源/面试放大影响力”。
按这个 Roadmap 把每个里程碑项目都写进 GitHub + 技术博客,你就能从“全栈工程师”平滑进阶为“能独立交付算法+系统+业务指标”的人工智能算法开发工程师。祝你升级愉快!