96SEO 2026-02-19 12:49 0
训练时通过图片逐步添加噪声#xff0c;变为一个纯噪声。

然后学习每一步的噪声。
推理时给定一个随机噪声图片#x…Diffusion算法可以有多个角度进行理解不同的理解方式只是对目标函数进行了不同的解释。
其主体思想是不变的可以归纳为
训练时通过图片逐步添加噪声变为一个纯噪声。
然后学习每一步的噪声。
推理时给定一个随机噪声图片然后通过学习到的噪声生成一个新的图片
\sqrt{\alpha_t}\boldsymbol{x}_{t-1}
\mathcal{N}(\boldsymbol{\epsilon};
xt都是随机变量可以进行恒等变换但是算出来的仍然是一个随机变量。
我们必须知道随机变量的分布才可以。
q(xt−1∣xt,x0)而这个值可以用贝叶斯公式变换为
q(xt−1∣xt,x0)q(xt∣xt−1,x0)q(xt∣x0)q(xt−1∣x0)
\sqrt{\bar\alpha_t}\boldsymbol{x}_0
\bar\alpha_t}\boldsymbol{\boldsymbol{\epsilon}}_0
上面的式子其实就是三个高斯分布相乘除那么通过代入高斯分布的公式然后经过一通计算以后可以获得
\mathbf{x}_0)^2}{1-\bar{\alpha}_{t-1}}
\mathbf{x}_0)^2}{1-\bar{\alpha}_t}
\color{red}{\mathbf{x}_{t-1}^2}
\color{red}{\mathbf{x}_{t-1}^2}
\mathbf{x}_0)^2}{1-\bar{\alpha}_t}
\color{red}{(\frac{\alpha_t}{\beta_t}
\color{blue}{(\frac{2\sqrt{\alpha_t}}{\beta_t}
\frac{2\sqrt{\bar{\alpha}_{t-1}}}{1
q(xt−1∣xt,x0)q(xt∣xt−1,x0)q(xt∣x0)q(xt−1∣x0)∝exp(−21(βt(xt−αt
xtxt−1αtxt−121−αˉt−1xt−12−2αˉt−1
x0xt−1αˉt−1x02−1−αˉt(xt−αˉt
x0)2))exp(−21((βtαt1−αˉt−11)xt−12−(βt2αt
\frac{\sqrt{\bar{\alpha}_{t-1}}\beta_t}{1
β~tμ~t(xt,x0)1−αˉt1−αˉt−1⋅βt1−αˉtαt
\boldsymbol{\mu}_q(\boldsymbol{x}_t,
\frac{1}{\sqrt{\alpha_t}}\boldsymbol{x}_t
\bar\alpha_t}\sqrt{\alpha_t}}\boldsymbol{\epsilon}_0\\
1−αtϵ01−αˉt1−αˉt−1⋅βt
VAE中引入了一个隐含的变量z将p(x|y)看成了p(x|z)和q(z|y)这两个部分然后获得了一个目标函数ELBO。
下面的公式说明了ELBO是p(x)的下界这个算法的目标就是最大化ELBO
q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})dz\\
q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})\log
\mathbb{E}_{q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})}\left[\log
\mathbb{E}_{q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})}\left[\log\frac{p(\boldsymbol{x},
\boldsymbol{z})}{p(\boldsymbol{z}\mid\boldsymbol{x})}\right]\\
\mathbb{E}_{q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})}\left[\log\frac{p(\boldsymbol{x},
\boldsymbol{z})q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})}{p(\boldsymbol{z}\mid\boldsymbol{x})q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})}\right]\\
\mathbb{E}_{q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})}\left[\log\frac{p(\boldsymbol{x},
\boldsymbol{z})}{q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})}\right]
\mathbb{E}_{q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})}\left[\log\frac{q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})}{p(\boldsymbol{z}\mid\boldsymbol{x})}\right]\\
\mathbb{E}_{q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})}\left[\log\frac{p(\boldsymbol{x},
\boldsymbol{z})}{q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})}\right]
\mathcal{D}_{\text{KL}}(q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})
p(\boldsymbol{z}\mid\boldsymbol{x}))\\
\mathbb{E}_{q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})}\left[\log\frac{p(\boldsymbol{x},
\boldsymbol{z})}{q_{\boldsymbol{\phi}}(\boldsymbol{z}\mid\boldsymbol{x})}\right]
logp(x)logp(x)∫qϕ(z∣x)dz∫qϕ(z∣x)logp(x)dzEqϕ(z∣x)[logp(x)]Eqϕ(z∣x)[logp(z∣x)p(x,z)]Eqϕ(z∣x)[logp(z∣x)qϕ(z∣x)p(x,z)qϕ(z∣x)]Eqϕ(z∣x)[logqϕ(z∣x)p(x,z)]Eqϕ(z∣x)[logp(z∣x)qϕ(z∣x)]Eqϕ(z∣x)[logqϕ(z∣x)p(x,z)]DKL(qϕ(z∣x)∣∣p(z∣x))≥Eqϕ(z∣x)[logqϕ(z∣x)p(x,z)]
p(zt|y)。
可以发现这个和扩散模型的思想是非常类似的。
并且可以推导出来Hierarchical
\mathbb{E}_{q(\boldsymbol{x}_{1:T}\mid\boldsymbol{x}_0)}\left[\log
\frac{p(\boldsymbol{x}_{0:T})}{q(\boldsymbol{x}_{1:T}\mid\boldsymbol{x}_0)}\right]\\
\underbrace{\mathbb{E}_{q(\boldsymbol{x}_{1}\mid\boldsymbol{x}_0)}\left[\log
p_{\boldsymbol{\theta}}(\boldsymbol{x}_0\mid\boldsymbol{x}_1)\right]}_\text{reconstruction
\underbrace{\mathcal{D}_{\text{KL}}(q(\boldsymbol{x}_T\mid\boldsymbol{x}_0)
p(\boldsymbol{x}_T))}_\text{prior
\underbrace{\mathbb{E}_{q(\boldsymbol{x}_{t}\mid\boldsymbol{x}_0)}\left[\mathcal{D}_{\text{KL}}(q(\boldsymbol{x}_{t-1}\mid\boldsymbol{x}_t,
p_{\boldsymbol{\theta}}(\boldsymbol{x}_{t-1}\mid\boldsymbol{x}_t))\right]}_\text{denoising
logp(x)≥Eq(x1:T∣x0)[logq(x1:T∣x0)p(x0:T)][t]reconstruction
Eq(x1∣x0)[logpθ(x0∣x1)]−prior
DKL(q(xT∣x0)∣∣p(xT))−t2∑Tdenoising
Eq(xt∣x0)[DKL(q(xt−1∣xt,x0)∣∣pθ(xt−1∣xt))]
然后扩散模型就选择了最后一项作为自己的目标函数。
同时扩散模型假设了xt和xt-1之间的分布然后把ELBO最后一项推呀推推出最后需要学习一个噪声项。
VAE的目标就是输入x输出的y接近x的分布。
做的方法是假设了一个中间变量z然后问题变为计算两个条件概率p(x|z)和p(z|y)。
在传统VAE中这两个条件概率密度都是通过神经网络做的。
Diffusion的目标和VAE挺类似的但是没有用神经网络做而是直接用一个线性的函数规定了z和x
ϵ是一个高斯噪声因此可以通过贝叶斯计算均值和方差。
Diffusion的目标函数是VAE目标函数的一部分
作为专业的SEO优化服务提供商,我们致力于通过科学、系统的搜索引擎优化策略,帮助企业在百度、Google等搜索引擎中获得更高的排名和流量。我们的服务涵盖网站结构优化、内容优化、技术SEO和链接建设等多个维度。
| 服务项目 | 基础套餐 | 标准套餐 | 高级定制 |
|---|---|---|---|
| 关键词优化数量 | 10-20个核心词 | 30-50个核心词+长尾词 | 80-150个全方位覆盖 |
| 内容优化 | 基础页面优化 | 全站内容优化+每月5篇原创 | 个性化内容策略+每月15篇原创 |
| 技术SEO | 基本技术检查 | 全面技术优化+移动适配 | 深度技术重构+性能优化 |
| 外链建设 | 每月5-10条 | 每月20-30条高质量外链 | 每月50+条多渠道外链 |
| 数据报告 | 月度基础报告 | 双周详细报告+分析 | 每周深度报告+策略调整 |
| 效果保障 | 3-6个月见效 | 2-4个月见效 | 1-3个月快速见效 |
我们的SEO优化服务遵循科学严谨的流程,确保每一步都基于数据分析和行业最佳实践:
全面检测网站技术问题、内容质量、竞争对手情况,制定个性化优化方案。
基于用户搜索意图和商业目标,制定全面的关键词矩阵和布局策略。
解决网站技术问题,优化网站结构,提升页面速度和移动端体验。
创作高质量原创内容,优化现有页面,建立内容更新机制。
获取高质量外部链接,建立品牌在线影响力,提升网站权威度。
持续监控排名、流量和转化数据,根据效果调整优化策略。
基于我们服务的客户数据统计,平均优化效果如下:
我们坚信,真正的SEO优化不仅仅是追求排名,而是通过提供优质内容、优化用户体验、建立网站权威,最终实现可持续的业务增长。我们的目标是与客户建立长期合作关系,共同成长。
Demand feedback