100 Papers with Code

关于这个网站

这个网站旨在收集和展示 100 篇重要的 AI 论文及其代码实现。每篇论文都附有链接,方便读者深入了解。

为什么要搭建这个网站?

在本人学习,阅读和实践 AI 领域的过程中,发现很多重要的论文和代码实现都散落在各个地方。为了方便自己和其他人查阅,我决定搭建这个网站,将这些重要的论文和以及自己的实现,集中在一起。

如何使用这个网站?

每个论文都有一个独立的页面,包含论文的基本信息、链接和代码实现。你可以通过点击论文名称来查看详细内容。一下是以及实现,或者是打算记录的论文列表:

Number Paper Name Description Code Category
01 Attention is All You Need (Transformer ) 引入了 Transformer 架构,该架构完全依赖 自注意力机制(Self-Attention) 进行序列建模,使得模型可以 并行计算,并在 自然语言处理任务 上大幅提升了性能。 NLP / Transformer
02 An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale ( Vision Transformer ) Vision Transformer (ViT) 是一种将图像划分为小块(patches),并将其作为 token 输入标准 Transformer 模型进行图像分类的架构,首次实现了纯注意力机制在视觉任务中的成功应用 Computer Vision / Transformer
03 Swin Transformer: Hierarchical Vision Transformer using Shifted Windows ( Swin Transformer ) Swin Transformer 是一种使用层次化结构滑动窗口自注意力机制的视觉 Transformer 模型,既保留了局部建模的高效性,又通过窗口偏移实现跨区域信息交互,适用于图像分类、目标检测和语义分割等多种视觉任务。 Computer Vision / Transformer
04 Learning Transferable Visual Models From Natural Language Supervision ( CLIP ) CLIP 是一种利用大规模图文对比学习,将图像与自然语言映射到同一语义空间,从而实现零样本图像识别与跨模态检索的多模态基础模型 Computer Vision / Transformer
05 | FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness ( Flash Attention ) | FlashAttention 是一种优化的注意力机制实现,通过减少内存访问和提升计算效率,实现更快、更节省资源的 Transformer 推理与训练。 | | Computer Vision / Transformer |

: {.hover}