100 Papers with Code
关于这个网站
这个网站旨在收集和展示 100 篇重要的 AI 论文及其代码实现。每篇论文都附有链接,方便读者深入了解。
为什么要搭建这个网站?
在本人学习,阅读和实践 AI 领域的过程中,发现很多重要的论文和代码实现都散落在各个地方。为了方便自己和其他人查阅,我决定搭建这个网站,将这些重要的论文和以及自己的实现,集中在一起。
如何使用这个网站?
每个论文都有一个独立的页面,包含论文的基本信息、链接和代码实现。你可以通过点击论文名称来查看详细内容。一下是以及实现,或者是打算记录的论文列表:
Number | Paper Name | Description | Code | Category |
---|---|---|---|---|
01 | Attention is All You Need (Transformer ) | 引入了 Transformer 架构,该架构完全依赖 自注意力机制(Self-Attention) 进行序列建模,使得模型可以 并行计算,并在 自然语言处理任务 上大幅提升了性能。 | NLP / Transformer | |
02 | An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale ( Vision Transformer ) | Vision Transformer (ViT) 是一种将图像划分为小块(patches),并将其作为 token 输入标准 Transformer 模型进行图像分类的架构,首次实现了纯注意力机制在视觉任务中的成功应用。 | Computer Vision / Transformer | |
03 | Swin Transformer: Hierarchical Vision Transformer using Shifted Windows ( Swin Transformer ) | Swin Transformer 是一种使用层次化结构和滑动窗口自注意力机制的视觉 Transformer 模型,既保留了局部建模的高效性,又通过窗口偏移实现跨区域信息交互,适用于图像分类、目标检测和语义分割等多种视觉任务。 | Computer Vision / Transformer | |
04 | Learning Transferable Visual Models From Natural Language Supervision ( CLIP ) | CLIP 是一种利用大规模图文对比学习,将图像与自然语言映射到同一语义空间,从而实现零样本图像识别与跨模态检索的多模态基础模型 | Computer Vision / Transformer |
05 | FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness ( Flash Attention ) | FlashAttention 是一种优化的注意力机制实现,通过减少内存访问和提升计算效率,实现更快、更节省资源的 Transformer 推理与训练。 | | Computer Vision / Transformer |
: {.hover}