<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet href="/rss.xsl" type="text/xsl"?><rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Kyle&apos;s Blog</title><description>Kyle 的个人博客，记录强化学习、机器学习与编程学习中的笔记和思考。</description><link>https://kkkkkkkyle.com</link><item><title>多臂老虎机问题（MAB）</title><link>https://kkkkkkkyle.com/posts/mab</link><guid isPermaLink="true">https://kkkkkkkyle.com/posts/mab</guid><description>从问题定义、价值估计、增量更新到 epsilon-greedy，UCB 和 Thompson Sampling算法的多臂老虎机入门笔记。</description><pubDate>Wed, 22 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;h2&gt;Definition&lt;/h2&gt;
&lt;h3&gt;MAB问题的形式化描述&lt;/h3&gt;
&lt;p&gt;对于 $k$ 臂老虎机，动作集合为 $\mathcal{A}={1,2,\dots,k}$，在每个时刻 $t$，智能体选择一个动作 $A_t$ ，表示时刻 $t$ 实际拉动的 arm。随后环境返回 $t$ 时刻的奖励 $R_t\in\mathbb{R}$ 。&lt;/p&gt;
&lt;p&gt;自然地对于任意固定动作 $a\in\mathcal A$，有 $Q(a) = \mathbb{E}(R_t \mid A_t = a)$ 是对于每个arm a的真实期望奖励，因此多臂老虎机的目标即为最大化 $T$ 时间段内累计期望奖励 $\max \mathbb{E}^\pi\sum_{t=1}^T R_t$&lt;/p&gt;
&lt;h3&gt;估计期望奖励&lt;/h3&gt;
&lt;p&gt;$$
\hat Q_t(a)=N_t^{-1}(a)\sum_{i=1}^t \mathbb{I}(A_i=a)R_i
$$&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;$\hat Q_t(a)$：到时刻 $t$ 为止，我们对动作（arm）$a$ 的奖励均值估计。&lt;/li&gt;
&lt;li&gt;$N_t(a)=\sum_{i=1}^t \mathbb{I}(A_i=a)$：到时刻 $t$ 为止，动作 $a$ 一共被选中了多少次。&lt;/li&gt;
&lt;li&gt;直观地，$\hat Q_t(a)=\frac{\text{arm } a \text{ 历史上得到的奖励总和}}{\text{arm } a \text{ 被选中的次数}}$&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;增量更新&lt;/h3&gt;
&lt;p&gt;如果 $t$ 时刻选择了a
$$
\begin{aligned}
\hat Q_{t+1}(a)&amp;amp;={N_t(a)+1}^{-1}\left(\sum_{i=1}^t \mathbb{I}(A_i=a)R_i + R_{t+1}\right)\
&amp;amp;=
\frac{N_t(a)}{N_t(a)+1}
\left{
N_t^{-1}(a)\sum_{i=1}^t \mathbb{I}(A_i=a)R_i
\right}&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;\frac{R_{t+1}}{N_t(a)+1}\
&amp;amp;=\frac{N_t(a)}{N_t(a)+1}\hat Q_t(a) + \frac{R_{t+1}}{N_t(a)+1}
\end{aligned}
$$
非平稳环境下，考虑一个给定的步长参数&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;探索-利用&lt;/h3&gt;
&lt;p&gt;&lt;strong&gt;探索&lt;/strong&gt;（exploration）是指尝试拉动更多可能的拉杆，这根拉杆不一定会获得最大的奖励，但这种方案能够摸清楚所有拉杆的获奖情况。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;例如，对于一个 10 臂老虎机，我们要把所有的拉杆都拉动一下才知道哪根拉杆可能获得最大的奖励。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;strong&gt;利用&lt;/strong&gt;（exploitation）是指拉动已知期望奖励最大的那根拉杆，由于已知的信息仅仅来自有限次的交互观测，所以当前的最优拉杆不一定是全局最优的。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;例如，对于一个 10 臂老虎机，我们只拉动过其中 3 根拉杆，接下来就一直拉动这 3 根拉杆中期望奖励最大的那根拉杆，但很有可能期望奖励最大的拉杆在剩下的 7 根当中，即使我们对 10 根拉杆各自都尝试了 20 次，发现 5 号拉杆的经验期望奖励是最高的，但仍然存在着微小的概率—另一根 6 号拉杆的真实期望奖励是比 5 号拉杆更高的。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;于是在多臂老虎机问题中，设计策略时就需要平衡探索和利用的次数，不可能单独只探索或只利用，最终目的是使得累积奖励最大化。目前已有经典的算法包括$\varepsilon-$贪婪算法、上置信界算法和汤普森采样算法等。&lt;/p&gt;
&lt;hr /&gt;
&lt;h2&gt;ε-greedy&lt;/h2&gt;
&lt;p&gt;每次以概率 $1-\varepsilon$ 选择 greedy policy：&lt;/p&gt;
&lt;p&gt;$$
A_t = \arg\max_{a} \hat Q_{t-1}(a)
$$
以概率 $\varepsilon$ 随机选择一个arm a&lt;/p&gt;
&lt;h3&gt;算法伪代码&lt;/h3&gt;
&lt;p&gt;&lt;strong&gt;输入：&lt;/strong&gt; 探索概率 $\varepsilon\in(0,1)$，总轮数 $T$，臂数 $k$&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;初始化：&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;对每个 $a\in{1,2,\dots,k}$，令
$$
\hat Q(a)\leftarrow 0,\qquad N(a)\leftarrow 0
$$
令 $t\leftarrow 0$&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;循环执行直到 $t=T$：&lt;/strong&gt;&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;$t\leftarrow t+1$&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;按 $\varepsilon$-贪心策略选择动作：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;以概率 $1-\varepsilon$，选择当前估计奖励最大的臂
$$
a^*\leftarrow \arg\max_{a}\hat Q(a)
$$&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;以概率 $\varepsilon$，从 ${1,2,\dots,k}$ 中随机选择一根臂&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;拉动臂 $a^*$，获得奖励 $R$&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;更新该臂的选择次数：
$$
N(a^&lt;em&gt;)\leftarrow N(a^&lt;/em&gt;)+1
$$&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;更新该臂的估计期望奖励：
$$
\hat Q(a^&lt;em&gt;)\leftarrow \frac{N(a^&lt;/em&gt;)-1}{N(a^&lt;em&gt;)}\hat Q_t(a) + \frac{1}{N(a^&lt;/em&gt;)}R
$$&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;hr /&gt;
&lt;h2&gt;Upper Confidence Bound&lt;/h2&gt;
&lt;p&gt;探索准则（乐观准则）：看某个 arm 在乐观估计下最多可能有多好，因此每次选
$$
\arg\max_a \bigl[\underbrace{\hat{Q}&lt;em&gt;t(a)}&lt;/em&gt;{\text{利用}}+\underbrace{U_t(a)}_{\text{探索}}\bigr]
$$&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;$U_t(a)$：对arm $a$ 的&lt;strong&gt;不确定性补偿项 / 置信上界 bonus&lt;/strong&gt;
$$
U_t(a)=\sqrt{\frac{c\log t}{N_t(a)}}
$$
试得越多，bonus 衰减越快；试得越少，bonus 越大&lt;/li&gt;
&lt;/ul&gt;
&lt;blockquote&gt;
&lt;p&gt;Hoeffding&apos;s inequality
$$
\mathbb{P}{\mathbb{E}[X]\geq \bar{x}_n + u} \leq e^{-2nu^2}
$$&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;因此有
$$
\Pr\big(Q(a)\le \hat Q_t(a)+U_t(a)\big)\ge 1-t^{-2c}.
$$
上界是随着$t\to\infty$，$1-t^{-2c}\to 1.$&lt;/p&gt;
&lt;h3&gt;算法伪代码&lt;/h3&gt;
&lt;p&gt;&lt;strong&gt;输入：&lt;/strong&gt; 常数 (c&amp;gt;0)，总轮数 $T$，臂数 $k$&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;初始化:&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;对每个 $a\in{1,2,\dots,k}$，令
$$
\hat Q(a)\leftarrow 0,\qquad N(a)\leftarrow 0
$$
令 $t\leftarrow 0$&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;循环执行直到 $t=T$：&lt;/strong&gt;&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;$t \leftarrow t+1$&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;按 UCB 策略选择动作：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;选择上置信界最大的臂&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;$$
a^*\leftarrow \arg\max_a\left[\hat Q(a)+\sqrt{\frac{c\log t}{N(a)}}\right]
$$&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;拉动臂 $a^*$，获得奖励 $R$&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;更新该臂的选择次数：
[
N(a^&lt;em&gt;) \leftarrow N(a^&lt;/em&gt;)+1
]&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;更新该臂的估计期望奖励：
[
\hat Q(a^&lt;em&gt;) \leftarrow \hat Q(a^&lt;/em&gt;) + \frac{1}{N(a^&lt;em&gt;)}\bigl(R-\hat Q(a^&lt;/em&gt;)\bigr)
]&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;hr /&gt;
&lt;h2&gt;Thompson Sampling&lt;/h2&gt;
&lt;p&gt;对每个 arm 的真实奖励参数并不确定，因此先维护这个参数的后验分布；每一轮从后验分布中采样一个参数值，再选择采样值最大的 arm。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;贝叶斯学派&lt;/strong&gt;一脉相承的思想：先验分布的存在，这里是给奖励分布先建模后加先验分布&lt;/p&gt;
&lt;h3&gt;Bernoulli Bandit&lt;/h3&gt;
&lt;p&gt;以Bernoulli Bandit为例：假设 arm a 的奖励分布是均值为 $\theta(a)$ 的伯努利分布，即
$$
R_t \mid A_t = a \sim Ber(\theta_a)
$$
给成功率 $\theta(a)$ 设 Beta 先验分布：
$$
\theta_a \sim Beta(\alpha, \beta)
$$&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Beta 分布适合做 Bernoulli 参数的先验，而且与 Bernoulli 分布是&lt;strong&gt;共轭分布&lt;/strong&gt;，因此后验更新很方便。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;贝叶斯法则更新后验：
$$
\theta(a)\mid \mathcal D \sim \mathrm{Beta}(S_a+\alpha,;F_a+\beta)
$$&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;$S_a$：arm $a$ 的成功次数&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;$F_a$：arm $a$ 的失败次数&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;后验 = 先验信念 + 真实观测证据&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;对于 Bernoulli 分布，其期望为参数本身，因此动作价值为
$$
\mathbb E(R\mid A=a,\theta_t)=\theta_t(a)
$$&lt;/p&gt;
&lt;h3&gt;算法伪代码（Bernoulli-TS）&lt;/h3&gt;
&lt;p&gt;&lt;strong&gt;输入：&lt;/strong&gt; 超参数 $\alpha,\beta&amp;gt;0$，总轮数 $T$&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;初始化：&lt;/strong&gt; 对每个 $a\in{1,2,\dots,k}$，令
$$
S_a\leftarrow 0,\qquad F_a\leftarrow 0
$$
令 $t\leftarrow 0$&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;循环执行直到 $t=T$：&lt;/strong&gt;&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;$t \leftarrow t+1$&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;对每个 arm $a$，从其后验中采样（探索）
$$
\theta_a \sim \mathrm{Beta}(\alpha+S_a,\beta+F_a)
$$&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;选择后验采样值最大的臂（利用）
$$
a^*=\arg\max_a \theta_a
$$&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;拉动臂 $a^*$，获得奖励 $R$&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;观察结果后更新 $S_a,F_a$&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;$R=1$，$S_a\leftarrow S_a + 1$&lt;/li&gt;
&lt;li&gt;$R=0$，$F_a\leftarrow F_a + 1$&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h2&gt;Contextual Bandits&lt;/h2&gt;
&lt;p&gt;$S_t$: context; $A_t$: action; $R_t$: reward&lt;/p&gt;
&lt;h3&gt;Personalized recommedation&lt;/h3&gt;
&lt;p&gt;$A_t \mid S_t$：根据$S_t$做推荐$A_t$&lt;/p&gt;
&lt;p&gt;目标依然是 $\max \mathbb{E}\sum_{t=0}^T R_t$&lt;/p&gt;
</content:encoded><author>kkkkkkkyle</author></item><item><title>马尔可夫决策过程（MDP）</title><link>https://kkkkkkkyle.com/posts/mdp</link><guid isPermaLink="true">https://kkkkkkkyle.com/posts/mdp</guid><description>从马尔可夫链出发，系统梳理 MDP 的形式化定义（马尔可夫性、时齐性），并延伸到 TMDP 与 POMDP 的现实意义与转化技巧，为后续 Value Function 与 Bellman 方程打基础。面向统计/机器学习初学者的推导型笔记</description><pubDate>Wed, 22 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;h2&gt;数学Prep&lt;/h2&gt;
&lt;h3&gt;Markov Chains&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;Markov property（马尔可夫性）：$\text{Pr}(S_{t+1}\mid S_t) = \text{Pr}(S_{t+1}\mid S_1,\cdots,S_{t})$&lt;/p&gt;
&lt;p&gt;下一状态只取决于当前状态，与过去状态无关；当前状态已经包含了历史所有相关信息；当前状态可看作历史的充分统计量&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Time-homogeneity（时齐性）： $\text{Pr}(S_{t+1}\mid S_t=s) = \text{Pr}(S_{t}\mid S_{t-1}=s)$&lt;/p&gt;
&lt;p&gt;从当前状态到下一状态的概率只依赖于当前状态，与时间无关&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h2&gt;MDP定义&lt;/h2&gt;
&lt;p&gt;${S_t, A_t, R_t}_t$序列定义了一个马尔可夫决策过程（MDP），当且仅当满足&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;$\text{Pr}(S_{t+1},R_t\mid A_t,S_t) = \text{Pr}(S_{t+1},R_t\mid A_t,S_t,R_{t-1},A_{t-1},S_{t-1},\cdots)$（马尔可夫性）&lt;/li&gt;
&lt;li&gt;$\text{Pr}(S_{t+1}, R_t \mid A_t=a, S_t=s) = \text{Pr}(S_{t}, R_{t-1} \mid A_{t-1}=a, S_{t-1}=s)$（时齐性）&lt;/li&gt;
&lt;/ul&gt;
&lt;h2&gt;Time-Varying MDPs&lt;/h2&gt;
&lt;p&gt;在实际场景中往往时齐性的假设会被违反，下面举一些简单的例子来辅助理解：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;网约车&lt;/strong&gt;：早高峰路况 ≠ 晚高峰路况，周一模式 ≠ 周末模式。同样的&quot;司机在 A 地、订单在 B 地&quot;这个 $(s, a)$ 对，在工作日早上点的完成率和平日晚上 10 点完全不同。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;金融市场&lt;/strong&gt;：同样的仓位策略，在牛市和熊市的转移规律完全不同。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;还有课件里的 &lt;strong&gt;Intern Health Study&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;干预衰减（Treatment Effect Decay）&lt;/strong&gt;：第 1 周发运动提醒短信，实习生很受激励；第 10 周已经麻木；第 20 周甚至可能反感。&lt;/p&gt;
&lt;p&gt;一样的 $(S_t=\text{低落}, A_t=\text{发短信})$，$R_t$ 的分布在第 1 周和第 20 周完全不同。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;学习效应&lt;/strong&gt;：患者随着病程推进，自我管理能力在变化。&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;再拿推荐系统举例：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;用户连续看了 10 个视频后，对第 11 个同类视频的点击率会下降。&lt;/p&gt;
&lt;p&gt;这不是因为状态 $S_t$ 没记录到&quot;用户疲劳程度&quot;——即使你记录了，&quot;&lt;strong&gt;疲劳&lt;/strong&gt;对点击行为的影响模式本身&quot;也可能随时间改变。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;用户群体的兴趣漂移（concept drift）。&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;因此需要考虑将时间变量纳入状态中&lt;/p&gt;
&lt;h2&gt;Partially Observable MDPs&lt;/h2&gt;
&lt;p&gt;同样的，完整观测假设也有可能被违反&lt;/p&gt;
&lt;h3&gt;the Tiger Problem&lt;/h3&gt;
&lt;p&gt;两扇门，一扇后有老虎，一扇后安全。你可以选择：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;直接开门&lt;/strong&gt;（高风险高回报/高惩罚）&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;听一下&lt;/strong&gt;（获得带噪声的信息，再决策）&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;在 MDP 版本中，假设你&lt;strong&gt;直接知道&lt;/strong&gt;老虎在哪扇门后（完美观测），那么最优策略 trivial：直接开安全的门。&lt;/p&gt;
&lt;p&gt;但在 POMDP 版本中，你不知道老虎在哪。你有一个先验信念（比如 50% 在左，50% 在右）。你可以选择：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;exploitation 动作&lt;/strong&gt;：直接选一扇门开门&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;information-gathering 动作&lt;/strong&gt;：先&quot;听&quot;一下。听的结果（左/右有声音）是带噪声的——可能听错。&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;那既然看不到真实状态 $S_t$，Agent 该怎么办？答案是：维护一个对当前状态的&lt;strong&gt;概率分布&lt;/strong&gt;：
$$
b_t(s) = P(S_t = s \mid O_1, A_1, O_2, A_2, \dots, O_t, \text{history})
$$&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;这个 $b_t$ 就是 &lt;strong&gt;Belief State（信念状态）&lt;/strong&gt;。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;信念更新就是贝叶斯推断&lt;/strong&gt;：&lt;/p&gt;
&lt;p&gt;每次获得新观测 $o_{t+1}$ 后，Agent 用贝叶斯规则更新信念：
$$
b_{t+1}(s&apos;) \propto Z(o_{t+1} \mid s&apos;, a_t)\times \sum_s T(s&apos; \mid s, a_t) b_t(s)
$$&lt;/p&gt;
&lt;h2&gt;MDP vs TMDP vs POMDP&lt;/h2&gt;
&lt;pre&gt;&lt;code&gt;真实世界
  ├── 是否完全可观测？
  │   ├── 否 → POMDP（需要信念状态 / 拼接观测）
  │   └── 是 → 进入下一问
  │       └── 是否时齐？
  │           ├── 是 → MDP（标准模型，最优策略平稳）
  │           └── 否 → TMDP（最优策略随时间变化）
&lt;/code&gt;&lt;/pre&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;&lt;/th&gt;
&lt;th&gt;MDP&lt;/th&gt;
&lt;th&gt;TMDP&lt;/th&gt;
&lt;th&gt;POMDP&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;违反的假设&lt;/td&gt;
&lt;td&gt;/&lt;/td&gt;
&lt;td&gt;时齐性&lt;/td&gt;
&lt;td&gt;完全可观测性&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Agent眼中&lt;/td&gt;
&lt;td&gt;$S_t$&lt;/td&gt;
&lt;td&gt;$S_t$&lt;/td&gt;
&lt;td&gt;$O_t$（不完整噪声）&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
</content:encoded><author>kkkkkkkyle</author></item></channel></rss>