微分

简介: 1.求导法则(u±v)′=u′±v′(u\pm v)'=u'\pm v'(uv)′=u′v+v′u(uv)'=u'v+v'u(uv)′=u′v−v′uv2( \frac u v)'=\frac {u'v-v'u} {v^2}2.常用公式(xa)′=axa−1(x^a)'=ax^{a-1}(ax)′=axlna(a^x)'=a^xlna(sinx)′(sinx

1.求导法则

(u±v)=u±v
(uv)=uv+vu
(uv)=uvvuv2

2.常用公式

(xa)=axa1
(ax)=axlna
(sinx)

目录
相关文章
|
8月前
|
机器学习/深度学习 算法 Python
数学和微分角度理解梯度下降算法
数学和微分角度理解梯度下降算法
|
8月前
|
数据采集 算法 Python
[模型]拉格朗日插值法
[模型]拉格朗日插值法
|
10月前
微积分:微分
1.代数推导 假设我们有一个正方形初始边长为X,这时面积S1=x² 然后正方形的边长增加△x,此时面积S2=(x+△x)² 变化的面积大小是△s=(x+△x)²- x²=2x△x+(△x)² 观察可以发现当△x越小(△x)²会比2x△x率先趋近于0,也就是换句话说,当△x很小时我们可以近似的认为 △s=2x△x 仔细观察上面的式子,这个2X其实就是x的平方的导数,这时候我们是不是就理解了为什么说导数可以描述变化趋势的快慢。
90 0
二阶常系数非齐次线性微分方程的通解
二阶常系数非齐次线性微分方程的通解
二阶常系数齐次线性微分方程的通解
二阶常系数齐次线性微分方程的通解
|
11月前
|
机器学习/深度学习 人工智能 算法
【Pytorch神经网络基础理论篇】 06 自动求导+导数与微分
【Pytorch神经网络基础理论篇】 06 自动求导+导数与微分
217 0
|
机器学习/深度学习 算法 搜索推荐
导数、梯度、最优化方法|学习笔记
快速学习导数、梯度、最优化方法
132 0
导数、梯度、最优化方法|学习笔记
|
机器学习/深度学习 存储 算法
导数、梯度、最优化方法|学习笔记
快速学习导数、梯度、最优化方法
223 0
导数、梯度、最优化方法|学习笔记
L5-参数估计:矩估计与极大似然估计
L5-参数估计:矩估计与极大似然估计
L5-参数估计:矩估计与极大似然估计