1. 云栖社区>
  2. 全部标签>
  3. #损失函数#
损失函数

#损失函数#

已有0人关注此标签

内容分类:
博客 | 问答 | 视频 | 资料 |

Cross Entropy Loss 交叉熵损失函数公式推导

表达式 输出标签表示为{0,1}时,损失函数表达式为: $L = -[y log \hat{y} + (1-y)log(1- \hat{y})]$ 二分类 二分类问题,假设 y∈{0,1} 正例:$P(y = 1| x) = \hat{y}$ 反例:$P(y=0|x) = 1-\hat{y}$ 取似然函数 似然函数就是所有样本在参数θ下发生概率最大的那种情况,由于样本独立同分布,因此概率最大的情况就是每个样本发生概率的连乘。

损失函数 交叉熵 cross-entropy 似然函数

纯用NumPy实现神经网络

纯NumPy代码从头实现简单的神经网络。

算法 函数 神经网络 损失函数 激活函数 反向传播 Numpy

07 回归算法 - 过拟合欠拟合 - 案例

1、引入头文件 import numpy as np import matplotlib as mpl import matplotlib.pyplot as plt import pandas as pd import warnings import sklearn from sklearn.

算法 函数 random 人工智能 pipeline 损失函数

【深度学习之美】损失函数减肥用,神经网络调权重(入门系列之六)

有人开玩笑说,男人有两大烦恼:一是把别人的肚子搞大了,二是把自己的肚子搞大了。对于后者,除了减(jian)肥(shen),似乎别无他法。可你知道吗?这减肥背后的机理,和前馈神经网络利用损失函数,来反向调节各个神经元之间的连接权重,其实是一样一样的。为啥咧?

云栖社区 深度学习 神经网络 损失函数 品味大数据 张玉宏

【深度学习之美】损失函数减肥用,神经网络调权重(入门系列之六)

有人开玩笑说,男人有两大烦恼:一是把别人的肚子搞大了,二是把自己的肚子搞大了。对于后者,除了减(jian)肥(shen),似乎别无他法。可你知道吗?这减肥背后的机理,和前馈神经网络利用损失函数,来反向调节各个神经元之间的连接权重,其实是一样一样的。为啥咧?

大数据 人工智能 神经网络 损失函数 品味大数据 张玉宏 深度学习之美

简单自学机器学习理论——引言 (Part I )

本篇文章是"机器学习理论"三部曲中的第一部分,主要介绍学习机器学习的动机及基本理论知识,详细介绍机器学习所学习的问题、泛化误差以及学习问题是否可解的公式化表示,为初步研究机器学习的人员介绍了机器学习的基本处理过程。

机器学习 函数 编程 损失函数 学习问题可解 泛化误差

简单自学机器学习理论——引言 (Part I )

本篇文章是"机器学习理论"三部曲中的第一部分,主要介绍学习机器学习的动机及基本理论知识,详细介绍机器学习所学习的问题、泛化误差以及学习问题是否可解的公式化表示,为初步研究机器学习的人员介绍了机器学习的基本处理过程。

机器学习 函数 编程 损失函数 基本原理

1
GO