任务决策路径

任务决策路径


一、NLP任务决策路径

文本分类

开始
 |
 +-- Baseline: BERT/RoBERTa微调([CLS]+Linear)
 |-- 短文本(<50词): TF-IDF + BernoulliNB快速baseline
 |-- 有keyword等元信息: 关键词增强输入
 |-- 社交媒体文本: 提取hashtag/mention/url特征
 |-- 样本不均衡: Focal Loss / 类别权重 / 采样策略
 |-- 过拟合: Label Smoothing / Multi-Sample Dropout / 对抗训练
 |-- 领域不匹配: 继续预训练 / 对比学习级联迁移
 |-- 模型升级: DeBERTa V3(单模型最强) / MacBERT(中文优化)
 |-- 分类头增强: [CLS]+LSTM+Linear / 混合池化(Max+Avg+Self-Att)
 +-- 后期冲刺: 多模型概率融合 / 伪标签 / TTA

NER命名实体识别

开始
 |
 +-- Baseline: RoBERTa+CRF(数据少优先RoBERTa权重)
 |-- 编码器增强: BiLSTM+CRF(数据量大) / IDCNN+CRF(推理速度要求高)
 |-- 多层融合: BERT最后4层加权求和(上分点大)
 |-- 标注方法: IOBS(简单) vs BIOES(约束强),可同时标注投票融合
 |-- SOTA模型: FLAT(中文NER引入词信息,决赛加分)
 |-- 脱敏数据: 词频映射 + 混合词表初始化
 |-- 预测偏移: Offset Mapping修正 + 边界后处理
 |-- 标签约束强: CRF解码; 无约束: Softmax即可
 |-- 有格式实体: 规则方法(Regex) 100%准确率
 |-- 类别多数据少: 多任务拆分(边界+分类)
 |-- 后处理: Bad Case分析 → 规则修正(书名号/引号/格式校验)
 |-- 融合: 特殊概率融合(超参控制权重) > 简单概率平均 > 投票
 +-- 伪标签/半监督: 高置信度无标注数据加入训练

阅读理解/多选

开始
 |
 +-- 分词器选择: Byte-level BPE避免UNK
 |-- 输入顺序: QA顺序调换做伪融合
 |-- 模型增强: BERT上层加LSTM/Attention
 +-- 提分: Label Smoothing / TTA / 概率分布融合

数据增强与训练

开始
 |
 +-- 文本增强: 同义词替换 / 回译 / 实体替换 / EDA
 |-- Mixup: 在Embedding空间做插值(非原始文本)
 |-- 伪标签: 高置信度(0.9+)无标注样本加入训练
 |-- 训练稳定: Warmup(0.1) + 梯度裁剪(1.0) + 分层学习率
 +-- 融合多样性: 不同架构(BERT/RoBERTa/DeBERTa) + 不同折 + 不同超参

二、CV任务决策路径

图像分类

开始
 |
 +-- Baseline: ResNet18/34 + 基础增强
 |-- 冲分: EfficientNet-B3~B7 + MixUp/CutMix
 |-- 大数据量: ViT/Swin Transformer
 |-- 噪声标签: Bi-tempered Loss / Label Smoothing / Clean Label
 +-- 融合: 多架构概率平均(EfficientNet+ViT+ResNet)

目标检测

开始
 |
 +-- Baseline: EfficientDet-D0~D5 / YOLOv5s
 |-- 冲分: EfficientDet + YOLOv5 + Faster R-CNN 跨架构融合
 |-- 密集目标: Soft-NMS替代标准NMS
 |-- 多模型融合: WBF(首选) > Soft-NMS > NMS
 |-- 后处理: OOF选最优置信度阈值
 +-- 数据增强: Mosaic(检测标配) + MixUp

语义分割

开始
 |
 +-- Baseline: U-Net + ResNet34 backbone
 |-- 冲分: U-Net + EfficientNet backbone + Attention
 |-- 医学大图: TIF→PNG切片→训练→预测拼接
 |-- 损失: BCE + Dice(通用首选)
 |-- 小目标: Dice Loss分母平方优化
 +-- 融合: 多模型像素级概率平均

非典型CV数据

开始
 |
 +-- 频谱图/热力图: 直接当图像输入CNN
 |-- 人脸表情: 先人脸检测裁剪→再分类
 +-- 图像检索: 孪生网络 / ArcFace

CV按比赛阶段

阶段 技术点 说明
初期 基础增强(翻转/旋转/颜色) 先跑通流程,不要上来就复杂增强
初期 预训练权重 ImageNet预训练几乎必须
初期 小尺寸输入(256/384) 快速验证,后期再加大
中期 MixUp/CutMix/Mosaic 分类用MixUp/CutMix,检测用Mosaic
中期 EfficientNet-B3~B5 性价比最高的模型选择
中期 BCE + Dice Loss 分割任务通用首选
中期 WarmUp + CosineAnnealing 大模型训练标配
后期 WBF框融合 检测多模型融合首选
后期 OOF阈值优化 置信度阈值精调
后期 TTA 3~5种变换,推理时间换精度
后期 SWA 训练末期权重平均
后期 Label Smoothing 分类后期提分0.1~0.5个百分点
后期 伪标签 高置信度测试集预测加入训练
后期 跨架构融合 EfficientNet+ViT+ResNet多样性融合
后期 大尺寸输入(512/640) 显存允许时加大输入尺寸

三、时间序列任务决策路径

数据预处理

开始
 |
 +-- 量纲差异大: offset+log变换 → 固有值去除
 |-- 趋势性强: 趋势特征衍生(短期-长期中位数)
 |-- GBT趋势外推不足: 复合预测(LR拟合趋势+NN/GBT拟合残差)
 +-- 评价指标为SMAPE: 损失函数直接用SMAPE

建模

开始
 |
 +-- 树模型: LightGBM/XGBoost/CatBoost + 时序特征工程
 |-- DNN: 多输入(静态+动态) + Skip Connection
 |-- LSTM: 时序任务首选,捕捉长程依赖
 |-- GRU: 数据量小/快速实验,参数少训练快
 +-- 复合策略: 中位数模型 + DNN残差拟合

深度学习

开始
 |
 +-- 输入构造: 滑动窗口(前T步预测后1步)
 |-- 归一化: z-score(每个特征独立)
 |-- 双向: 慎用,预测任务可能数据泄露
 |-- 高频因子挖掘: 订单簿因子+成交因子+买卖单细分+联动因子+聚类因子
 |-- 因子评估: IC/ICIR(>0.5强因子) + 分层回测(单调性)
 |-- 半监督: 伪标签(高置信度) + 一致性正则 + Mixup时间步对齐
 +-- 多模型融合: 树模型+深度模型+统计模型

验证与集成

开始
 |
 +-- 交叉验证: 时序划分 + Gap防泄漏
 |-- NN集成: 20个NN取中位数
 +-- 后处理: round()取整 + 阈值截断

四、推荐系统竞赛决策路径

召回阶段

开始
 |
 +-- 协同过滤: ItemCF(电商/物品稳定) / UserCF(新闻/兴趣变化快)
 |-- 图嵌入: DeepWalk / Node2Vec / LINE
 |-- 深度召回: YouTube DNN(双塔) / DSSM
 |-- 多兴趣: MIND(动态路由) / ComiRec(注意力)
 |-- 向量检索: FAISS-IVF(通用) / FAISS-HNSW(高召回)
 +-- 多路召回: ItemCF + UserCF + DeepWalk + 双塔DNN 合并

排序阶段

开始
 |
 +-- 基础: Wide & Deep(需人工交叉特征) / DeepFM(自动交叉,通用首选)
 |-- 序列建模: DIN(注意力加权历史行为) / BST(Transformer编码序列)
 |-- 特征工程: 用户统计 + 物品统计 + 交叉统计 + 时间特征 + 序列特征
 +-- 训练: 负采样(随机+热门) + 多折时间划分验证

多目标优化

开始
 |
 +-- Shared-Bottom(简单但易负迁移)
 |-- MMOE(多Expert+多Gate,软共享)
 +-- PLE(任务Expert+共享Expert,目前最强)

知识图谱

开始
 |
 +-- 嵌入: TransE(1对1) / TransH(1对多) / TransR(复杂关系)
 +-- 增强: 实体链接 + 路径推理 + Embedding特征增强

五、结构化数据任务决策路径

特征工程

开始
 |
 +-- 缺失值: 按缺失原因分类处理
 |-- 异常值: 散点图识别 + 选择性删除
 |-- 偏态分布: log1p / Box-Cox变换
 |-- 数值实为类别: astype(str)修正语义
 |-- 有序类别: Label Encoding保留等级
 +-- 组合特征: 领域知识构造(如总面积)

模型选择

开始
 |
 +-- 线性模型: Lasso/ElasticNet/Ridge + RobustScaler
 |-- 树模型: GBR/XGBoost/LightGBM
 +-- 集成: Stacking + 加权平均融合

调参

开始
 |
 +-- 传统ML: GridSearchCV / 随机搜索 / 贝叶斯优化
 +-- 深度学习: 手动实验,lr最关键

六、新增技术决策路径

参数高效微调决策

开始
 |
 +-- 显存不足: LoRA(仅增0.1%~1%参数)
 |-- 多任务切换: Adapter / LoRA(每任务独立参数)
 |-- 少样本: P-Tuning v2(接近全参数微调)
 +-- 追求极致: 全参数微调

NER解码器决策

开始
 |
 +-- 扁平实体: CRF(稳定首选)
 |-- 嵌套实体: GlobalPointer / Span-based
 |-- 少样本: MRC-NER(问题引入先验)
 |-- 追求速度: Linear + 后处理
 +-- 追求极致: GlobalPointer / Biaffine

时序深度模型决策

开始
 |
 +-- 短序列: LSTM / GRU
 |-- 长序列多步: PatchTST / N-HiTS
 |-- 多周期: TimesNet
 |-- 趋势季节明显: Autoformer / N-BEATS
 |-- 多变量: PatchTST(通道独立)
 +-- 需要可解释性: TFT

推荐排序模型决策

开始
 |
 +-- 通用首选: DeepFM(自动二阶交叉)
 |-- 高阶交叉: DCN V2(有界阶交叉) / xDeepFM(向量级交叉)
 |-- 可解释性: AutoInt(注意力可视化)
 |-- 序列行为: DIN(注意力加权) / BST(Transformer)
 +-- 多目标: MMOE(软共享) / PLE(最强) / ESMM(CVR预估)

调参方法决策

开始
 |
 +-- 快速实验: 人工调参
 |-- 小搜索空间: 网格搜索
 |-- 大搜索空间: 贝叶斯优化(Optuna)
 |-- 训练成本高: Hyperband / BOHB
 |-- 分布式环境: ASHA + Ray Tune
 +-- 长时间训练: PBT(训练调参一体化)

CV新架构决策

开始
 |
 +-- 分类冲分: EfficientNetV2-M/L(比V1快5~11倍)
 |-- ViT替代: ConvNeXt(CNN归纳偏置+ViT设计)
 |-- 检测backbone: ConvNeXt-T/S
 |-- 分割backbone: Swin Transformer
 +-- 快速验证: EfficientNetV2-S