花书第二周--机器学习基本概念
机器学习算法 什么是学习? 对于某类任务T和性能度量P,一个计算机程序被认为可以从经验E中学习是指,通过经验E改进后,它在任务P上由性能度量P衡量的性能有所提升。 什么是机器学习算法? 能够从数据中学习的算法 1.1 任务T 机器学习的任务是什么? 机器学习系统应该如何处理样本,即对严办进行一个 ...
花书作业3(梯度下降小程序)
import numpy as npimport matplotlib.pyplot as pltfrom mpl_toolkits.mplot3d import Axes3Ddef f2(x,y): return np.exp(x*x+(y-2)*(y-2))def hx1(x,y): ...
极大似然估计,误差的高斯分布与最小二乘估计的等价性,最优化
极大似然估计 假设随机变量 $X-P(x;\theta)$ 现有样本 $x_1$, $x_2$, ... $x_N$ 定义似然函数为 $L=P(x_1;\theta)P(x_2;\theta) ... P(x_N;\theta)$ 对数似然函数为 $\hat{L}=ln[P(x_1;\theta)P ...
花书打卡2 (极大似然估计以及优化理论)
Chapter 3: 概率与信息论 3.1 概率的使用 机器学习通常必须处理不确定量,有时也要处理随机量,概率用来量化这些不确定性 不确定性的三种来源: 被建模系统内在的随机性 不完全观测 不完全建模 3.2 随机变量
python获取交集,并集,差集的方法
交集 #方法一:a=[2,3,4,5]b=[2,5,8]tmp = [val for val in a if val in b]print tmp#[2, 5]#方法二print list(set(a).intersection(set(b)))#方法二比方法一快很多!```js 并集 print ...
Word Embedding
dimension reduction word Embedding Machine learn the meaning of words from reading a lot of documents without supervision. Generating Word Vector is ...
自然语言处理NLP中的N-gram模型
Naive Bayes 见 https://dinry.github.io/%E8%A5%BF%E7%93%9C%E4%B9%A6day13/, 这里再复习一下。 朴素贝叶斯的关键组成是贝叶斯公式与条件独立性假设。为了方便说明,我们举一个垃圾短信分类的例子。 "在家日赚百万,惊人秘密... ...
www2019_recommender system
1.Cross-domain Recommendation Without Sharing User-relevant Data 研究方向:cross-domain recommendation Task Goal: combine data from different websites to i ...
tensorflow学习率衰减
在神经网络的训练过程中,学习率(learning rate)控制着参数的更新速度,tf.train类下面的五种不同的学习速率的衰减方法。 tf.train.exponential_decay tf.train.inverse_time_decay tf.train.natural_exp_deca ...