xinweili's picture
Update markdown/unit1/README_CN.md
bd7e1dd
# 单元 1: 扩散模型简介
欢迎来到 Hugging Face 扩散模型课程的第一单元!在本单元中,我们将会介绍有关扩散模型如何运作的基础知识,并介绍如何使用 🤗 diffusers 库。
## 开始本单元 :rocket:
在正式开始之前,我们先简单介绍一下本单元的学习步骤:
- 请完整阅读本章的所有内容,除此之外你也可以参考任何你感兴趣的其他资源
- 查看下面的 _**Introduction to Diffusers**_ Notebook 链接,并尝试使用 `diffuers` 库将理论知识运用到实践中
- 使用 Notebook 或链接中展示的训练代码来训练和分享你自己的扩散模型
- (可选) 如果你有兴趣尝试一个非常简单的从零开始的项目、探索项目中所涉及的不同设计决策,你可以尝试一下研究 _**Diffusion Models from Scratch**_ 这个 Notebook
:loudspeaker: 请不要忘了加入我们的频道 [Discord](https://huggingface.co/join/discord), 你可以在 `#diffusion-models-class` 频道来讨论课程内容以及分享你的作品。
## 什么是扩散模型?
扩散模型是「生成模型」算法家族的新成员。通过学习给定的训练样本,生成模型可以学会如何 **生成** 数据,比如生成图片或者声音。一个好的生成模型能生成一组 **样式不同** 的输出。这些输出会与训练数据相似,但不是一模一样的副本。扩散模型是如何实现这一点的呢?为了方便说明,让我们先看看图像生成的几个案例。
<p align="center">
<img src="https://user-images.githubusercontent.com/10695622/174349667-04e9e485-793b-429a-affe-096e8199ad5b.png" width="800"/>
<br>
<em> 图片来源于 DDPM paper (https://arxiv.org/abs/2006.11239)。</em>
<p>
扩散模型成功的秘诀在于扩散过程的迭代本质。最先生成的只是一组完全随机的噪声,但是经过若干的去噪步骤之后,随机的高斯噪声则会变成有意义的图像。在这其中的每一步中,扩散模型都会估计如何从当前步骤的输入生成一个部分去噪的结果。这之中的每一步模型都只会尝试对带噪图片做很小的变动,所以在生成图片的初期阶段(预测最终输出实际上非常困难),去噪结果中的任何 error 都可以在之后的更新中得到纠正。
与其他类型的生成模型相比,训练一个扩散模型相对较容易。我们只需要重复以下步骤即可:
1) 从训练数据中加载一些图像
2) 添加不同级别的噪声。需要注意的是,我们希望模型在面对添加了极多噪声和极少的噪声的带噪图像时,都能够很好地估计如何进行 “修复”(去噪)。
3) 将带噪图像输入模型中,获得去噪的结果
4) 评估模型去噪的效果
5) 使用此信息更新模型权重
为了用训练好的模型生成新的图像,我们从完全随机的输入开始,反复将其输入模型,每次根据模型预测对图片进行少量去噪。在之后的学习中,我们会学到有许多采样方法试图简化这个过程,使我们可以用尽可能少的步骤生成质量较高的图像。
我们将在第一单元的实践笔记本中详细介绍这些步骤。在第二单元中,我们将了解如何修改此过程,来通过额外的条件(例如类标签)或使用指导等技术来增加对模型输出的额外控制。第三单元和第四单元将探索一种非常强大的扩散模型,称为稳定扩散 (stable diffusion),它可以生成给定文本描述的图像。
## 实践笔记本
到这里,你已经具备了足够的知识来使用附带的笔记本了!这里的两个笔记本以不同的方式表达了相同的想法。
| Chapter | Colab | Kaggle | Gradient | Studio Lab |
|:--------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| Introduction to Diffusers | [![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/01_introduction_to_diffusers_CN.ipynb) | [![Kaggle](https://kaggle.com/static/images/open-in-kaggle.svg)](https://kaggle.com/kernels/welcome?src=https://github.com/huggingface/diffusion-models-class/blob/main/unit1/01_introduction_to_diffusers_CN.ipynb) | [![Gradient](https://assets.paperspace.io/img/gradient-badge.svg)](https://console.paperspace.com/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/01_introduction_to_diffusers_CN.ipynb) | [![Open In SageMaker Studio Lab](https://studiolab.sagemaker.aws/studiolab.svg)](https://studiolab.sagemaker.aws/import/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/01_introduction_to_diffusers_CN.ipynb) |
| Diffusion Models from Scratch | [![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/02_diffusion_models_from_scratch_CN.ipynb) | [![Kaggle](https://kaggle.com/static/images/open-in-kaggle.svg)](https://kaggle.com/kernels/welcome?src=https://github.com/huggingface/diffusion-models-class/blob/main/unit1/02_diffusion_models_from_scratch_CN.ipynb) | [![Gradient](https://assets.paperspace.io/img/gradient-badge.svg)](https://console.paperspace.com/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/02_diffusion_models_from_scratch_CN.ipynb) | [![Open In SageMaker Studio Lab](https://studiolab.sagemaker.aws/studiolab.svg)](https://studiolab.sagemaker.aws/import/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/02_diffusion_models_from_scratch_CN.ipynb) |
_**Introduction to Diffusers**_ 这个 Notebook 中,我们使用 diffusers 库中的构造模块展示了与上述不同的步骤。你将很快看到如何根据你选择的任何数据集来创建、训练和采样你自己的扩散模型。 在笔记本结束时,你将能够阅读和修改示例训练脚本,以训练扩散模型,并将其与全世界共同分享! 本笔记本还介绍了与本单元相关的主要练习,在这里,我们将共同尝试为不同规模的扩散模型找出好的「训练脚本」- 请参阅下一节了解更多信息。
_**Diffusion Models from Scratch**_ 这个 Notebook 中,我们展示了相同的过程(向数据添加噪声、创建模型、训练和采样),并尽可能简单地在 PyTorch 中从头开始实现。然后,我们将这个简单范例与 `diffusers` 版本的范例进行了比较,关注了两者的区别以及改进之处。我们希望读者能通过阅读这两个笔记本,来熟悉不同的库和其中的设计决策,以便在查看新的实现时能够快速确定关键思想。
## 项目时间
现在,你已经可以开始训练你自己的扩散模型了! _**Introduction to Diffusers**_ 这个 Notebook 的末尾有一些小tips,希望你能与社区分享你的任何发现、成果和训练脚本,帮助大家一起找出训练这些模型的最佳方法。
## 一些额外的材料
- [《Hugging Face 博客: 带注释的扩散模型》](https://huggingface.co/blog/annotated-diffusion)是对 DDPM 背后的代码和理论的非常深入的介绍,其中包括数学和显示了所有不同的组件的代码。它还链接了一些论文供进一步阅读:
- [Hugging Face 文档: 无条件图像生成 (Unconditional Image-Generation)](https://huggingface.co/docs/diffusers/training/unconditional_training),包含了有关如何使用官方训练示例脚本训练扩散模型的一些示例,包括演示如何创建自己的数据集的代码:
- AI Coffee Break video on Diffusion Models: https://www.youtube.com/watch?v=344w5h24-h8
- Yannic Kilcher Video on DDPMs: https://www.youtube.com/watch?v=W-O7AZNzbzQ
发现了有其他任何有帮助的资源?请 [向我们提出](https://github.com/huggingface/diffusion-models-class/issues),我们会将其加入到上面的列表中。