在Tensorflow上微调DETR(基于Transformer的目标检测)——详细教程
一步步教你如何在自定义数据集上用Tensorflow微调DETR。
Created on January 22|Last edited on July 13
Comment
本报告是作者Thibault Neveu所写的 "Finetuning DETR (Object Detection with Transformers) on Tensorflow - A step by step tutorial"的翻译
引言
自从2017年发表了论文《无可或缺的注意力》(《Attention is All you Need》),自然语言处理的格局就完全转移到基于Transformer的架构。
2020年,大部分计算机视觉模型依然仅依靠卷积神经网络来检测图像、分割图像。我们预计,2021年将是检测算法和分割算法的重要里程碑。卷积结合Transformer将成为大多数从业者的默认选择。
在新年来临之际,我们决定开源一个DETR(基于Transformer的目标检测)Tensorflow实现,包括参考代码、微调和训练!
- Tensorflow仓库: https://github.com/Visual-Behavior/detr-tensorflow
- DETR论文: https://arxiv.org/abs/2005.12872
This set of panels contains runs from a private project, which cannot be shown in this report
Add a comment
Tags: Intermediate, Computer Vision, Object Detection, Keras, Experiment, Research, Github, Panels, Plots, Slider
Iterate on AI agents and models faster. Try Weights & Biases today.