SARSA

简介: 什么是SARSASARSA算法的全称是State Action Reward State Action,属于时序差分学习算法的一种,其综合了动态规划算法和蒙特卡洛算法,比仅仅使用蒙特卡洛方法速度要快很多。

什么是SARSA

SARSA算法的全称是State Action Reward State Action,属于时序差分学习算法的一种,其综合了动态规划算法和蒙特卡洛算法,比仅仅使用蒙特卡洛方法速度要快很多。当时序差分学习算法每次更新的动作数为最大步数时,就等价于蒙特卡洛方法

值函数更新公式的引入:多次试验的平均

SARSA的核心思想在于增量计算。在蒙特卡洛算法中,我们需要对$Q$函数$\hat{Q}^{\pi}(s, a)$进行有效的估计,假设第$N$次试验后值函数为$\hat{Q}_{N}^{\pi}(s, a)$的平均为:

$$ \begin{aligned} \hat{Q}_{N}^{\pi}(s, a) &=\frac{1}{N} \sum_{n=1}^{N} G\left(\tau_{s_{0}=s, a_{0}=a}^{(n)}\right) \\ &=\frac{1}{N}\left(G\left(\tau_{s_{0}=s, a_{0}=a}^{(N)}\right)+\sum_{n=1}^{N-1} G\left(\tau_{s_{0}=s, a_{0}=a}^{(n)}\right)\right) \\ &=\frac{1}{N}\left(G\left(\tau_{s_{0}=s, a_{0}=a}^{(N)}\right)+(N-1) \hat{Q}_{N-1}^{\pi}(s, a)\right) \\ &=\hat{Q}_{N-1}^{\pi}(s, a)+\frac{1}{N}\left(G\left(\tau_{s_{0}=s, a_{0}=a}^{(N)}\right)-\hat{Q}_{N-1}^{\pi}(s, a)\right) \end{aligned} $$

其中$\tau_{s_{0}}=s, a_{0}=a$表示轨迹$\tau$的起始状态和动作为$s$, $a$。

省却以上公式的中间过程,我们可以将该公式简化为如下:

$$ \hat{Q}_{N}^{\pi}(s, a)=\hat{Q}_{N-1}^{\pi}(s, a)+\frac{1}{N}\left(G\left(\tau_{s_{0}=s, a_{0}=a}^{(N)}\right)-\hat{Q}_{N-1}^{\pi}(s, a)\right) $$

在该公式中,值函数$\hat{Q}^{\pi}(s, a)$在第$N$次试验后的值$\hat{Q}_{N}^{\pi}(s, a)$,即$N$次试验的平均等于前$N-1$次试验再加上一个增量。在该公式中,$1/N$可以表示成第$N$次试验相对于前$N-1$次试验的重要性

值函数更新公式的改进:权重参数的调整

更一般性的,我们可以将权重系数$1/N$改成一个比较小的正数$\alpha$,由此,以上公式可以被改写成为以下:

$$ \hat{Q}^{\pi}(s, a) \leftarrow \hat{Q}^{\pi}(s, a)+\alpha\left(G\left(\tau_{s_{0}=s, a_{0}=a}\right)-\hat{Q}^{\pi}(s, a)\right) $$

其中,增量$\delta \triangleq G\left(\tau_{s_{0}=s, a_{0}=a}\right)-\hat{Q}^{\pi}(s, a)$称为蒙特卡洛误差,表示真实的回报与期望回报之间的差距。

值函数更新公式的改进:累积奖励的计算

在上面的公式中,$G\left(\tau_{s_{0}}=s, a_{0}=a\right)$为一次试验的完整轨迹所得到的总回报,为了提高效率,放宽模型的约束,可以借助动态规划算法来计算$G\left(\tau_{s_{0}}=s, a_{0}=a\right)$,而不需要得到完整的轨迹。

从$s,a$开始,采样下一步的状态和动作$\left(s^{\prime}, a^{\prime}\right)$,并得到奖励$r(s,a,s^{\prime})$,然后利用贝尔曼方程来近似估计函数$G\left(\tau_{s_{0}}=s, a_{0}=a\right)$。

$$ \begin{aligned} G\left(\tau_{s 0}=s, a_{0}=a, s_{1}=s^{\prime}, a_{1}=a^{\prime}\right) &=r\left(s, a, s^{\prime}\right)+\gamma G\left(\tau_{s 0}=s^{\prime}, a_{0}=a^{\prime}\right) \\ & \approx r\left(s, a, s^{\prime}\right)+\gamma \hat{Q}^{\pi}\left(s^{\prime}, a^{\prime}\right) \end{aligned} $$

贝尔曼方程的思想精髓在于动态规划,即当前值的计算依赖于上一时刻的值。对于无最终状态的情况,我们定义了折扣率$\gamma$来重点强调现世的回报。

将以上公式结合,可以得到以下计算公式:

$$ \hat{Q}^{\pi}(s, a) \leftarrow \hat{Q}^{\pi}(s, a)+\alpha\left(r\left(s, a, s^{\prime}\right)+\gamma \hat{Q}^{\pi}\left(s^{\prime}, a^{\prime}\right)-\hat{Q}^{\pi}(s, a)\right) $$

这种策略学习算法称为$SARSA$算法。

通用$SARSA$算法框架:一个示例

一个通用的$SARSA$算法如下所示:

该算法的大致逻辑如下:

  1. 运行完一个回合即一个内循环。
  2. 运行直到$Q$函数收敛即为一个外循环。
  3. 运行期间动态更新$Q$函数,并基于$Q$函数更新策略$\pi(s)$。

时序差分学习和蒙特卡罗方法的主要不同为:蒙特卡罗需要完整一个路径完成才能知道其总回报,也不依赖马尔可夫性质;而时序差分学习只需要一步,其总回报需要依赖马尔可夫性质来进行近似估计。

相关文章
|
8月前
|
机器学习/深度学习 存储 算法
【强化学习】常用算法之一 “DQN”
DQN算法是深度学习领域首次广泛应用于强化学习的算法模型之一。它于2013年由DeepMind公司的研究团队提出,通过将深度神经网络与经典的强化学习算法Q-learning结合,实现了对高维、连续状态空间的处理,具备了学习与规划的能力。本文对DQN算法进行了详细的讲解,包括发展史、算法公式和原理、功能、示例代码以及如何使用。DQN算法通过结合深度学习和Q-learning算法,实现了对高维、连续状态空间的处理,具备了学习和规划的能力。
815 0
【强化学习】常用算法之一 “DQN”
|
4月前
|
算法
蒙特卡罗算法
蒙特卡罗算法
|
8月前
|
机器学习/深度学习 算法 知识图谱
【强化学习】常用算法之一 “SARSA”
强化学习是一种通过学习与环境交互来最大化累积奖励的方法。在强化学习中,一个智能体在特定环境中根据当前状态选择一个动作,执行该动作后,环境将转移到新的状态,并且智能体将获得奖励。强化学习的目标是通过学习,使智能体能够选择一系列能够获取最大累积奖励的动作序列,即找到最优策略。SARSA算法是一种基于状态-动作值的强化学习算法,用来学习最优策略。本文详细介绍了强化学习中的SARSA算法,包括其发展历程、算法原理、功能以及使用方法,并给出了求解迷宫问题的示例代码。
275 0
【强化学习】常用算法之一 “SARSA”
|
8月前
|
机器学习/深度学习 算法 自动驾驶
【强化学习】常用算法之一 “PPO”
强化学习是一种通过智能体与环境的互动来学习最优行为策略的机器学习方法。相较于监督学习和无监督学习,强化学习的特点在于具有延迟奖赏和试错机制。在强化学习中,智能体通过选择动作来影响环境,并且从环境中获得奖励作为反馈。强化学习的目标是通过与环境的交互,使得智能体能够学会最优的行为策略。PPO算法属于策略优化(Policy Optimization)算法家族,是由OpenAI在2017年提出的。与其他策略优化算法相比,PPO算法具有较高的样本利用率和较好的收敛性能。
628 1
【强化学习】常用算法之一 “PPO”
|
8月前
|
机器学习/深度学习 算法 安全
基于时态差分法的强化学习:Sarsa和Q-learning
时态差分法(Temporal Difference, TD)是一类在强化学习中广泛应用的算法,用于学习价值函数或策略。Sarsa和Q-learning都是基于时态差分法的重要算法,用于解决马尔可夫决策过程(Markov Decision Process, MDP)中的强化学习问题。
95 1
|
9月前
|
机器学习/深度学习 并行计算 算法
基于遗传算法和非线性规划的函数寻优算法
以下内容大部分来源于《MATLAB智能算法30个案例分析》,仅为学习交流所用。
|
11月前
|
移动开发 算法
|
11月前
|
机器学习/深度学习 传感器 缓存
基于强化学习求解多臂赌机问题(softmax策略)附matlab代码
基于强化学习求解多臂赌机问题(softmax策略)附matlab代码
|
12月前
|
存储 算法
PSO算法
粒子群算法(Particle Swarm Optimization,简称PSO)是一种优化算法,模拟了鸟群或鱼群等群体生物行为的优化思想。
140 0
梯度下降算法过程以及感知机算法与梯度下降算法区别
梯度下降算法过程以及感知机算法与梯度下降算法区别