Dinry

notebook


  • Home

  • About

  • Tags15

  • Categories7

  • Archives48

  • Schedule

  • Sitemap

  • Commonweal 404

  • Search

graph-attention-networks

Posted on 2019-10-08 | Edited on 2019-10-21 | In Deep learning

Read more »

花书第二周--机器学习基本概念

Posted on 2019-10-08 | In 花书

机器学习算法 什么是学习? 对于某类任务T和性能度量P,一个计算机程序被认为可以从经验E中学习是指,通过经验E改进后,它在任务P上由性能度量P衡量的性能有所提升。 什么是机器学习算法? 能够从数据中学习的算法 1.1 任务T 机器学习的任务是什么? 机器学习系统应该如何处理样本,即对严办进行一个 ...

Read more »

花书作业3(梯度下降小程序)

Posted on 2019-10-06 | In 花书

import numpy as npimport matplotlib.pyplot as pltfrom mpl_toolkits.mplot3d import Axes3Ddef f2(x,y): return np.exp(x*x+(y-2)*(y-2))def hx1(x,y): ...

Read more »

极大似然估计,误差的高斯分布与最小二乘估计的等价性,最优化

Posted on 2019-10-04 | Edited on 2019-10-05 | In 花书

极大似然估计 假设随机变量 $X-P(x;\theta)$ 现有样本 $x_1$, $x_2$, ... $x_N$ 定义似然函数为 $L=P(x_1;\theta)P(x_2;\theta) ... P(x_N;\theta)$ 对数似然函数为 $\hat{L}=ln[P(x_1;\theta)P ...

Read more »

花书打卡2 (极大似然估计以及优化理论)

Posted on 2019-10-03 | Edited on 2019-10-05 | In 花书

Chapter 3: 概率与信息论 3.1 概率的使用 机器学习通常必须处理不确定量,有时也要处理随机量,概率用来量化这些不确定性 不确定性的三种来源: 被建模系统内在的随机性 不完全观测 不完全建模 3.2 随机变量

Read more »

python获取交集,并集,差集的方法

Posted on 2019-09-21 | In python

交集 #方法一:a=[2,3,4,5]b=[2,5,8]tmp = [val for val in a if val in b]print tmp#[2, 5]#方法二print list(set(a).intersection(set(b)))#方法二比方法一快很多!```js 并集 print ...

Read more »

Word Embedding

Posted on 2019-09-19 | Edited on 2019-09-20 | In NLP

dimension reduction word Embedding Machine learn the meaning of words from reading a lot of documents without supervision. Generating Word Vector is ...

Read more »

自然语言处理NLP中的N-gram模型

Posted on 2019-09-16 | Edited on 2019-09-17 | In NLP

Naive Bayes 见 https://dinry.github.io/%E8%A5%BF%E7%93%9C%E4%B9%A6day13/, 这里再复习一下。 朴素贝叶斯的关键组成是贝叶斯公式与条件独立性假设。为了方便说明,我们举一个垃圾短信分类的例子。 "在家日赚百万,惊人秘密... ...

Read more »

www2019_recommender system

Posted on 2019-09-08 | Edited on 2019-09-16 | In recommender systems

1.Cross-domain Recommendation Without Sharing User-relevant Data 研究方向:cross-domain recommendation Task Goal: combine data from different websites to i ...

Read more »

tensorflow学习率衰减

Posted on 2019-08-16

在神经网络的训练过程中,学习率(learning rate)控制着参数的更新速度,tf.train类下面的五种不同的学习速率的衰减方法。 tf.train.exponential_decay tf.train.inverse_time_decay tf.train.natural_exp_deca ...

Read more »
123…5
dinry

dinry

路漫漫其修远兮,吾将上下而求索
48 posts
7 categories
15 tags
RSS
E-Mail Twitter
外部链接
  • CSDN
© 2019 dinry
Powered by Hexo v3.9.0
|
Theme – NexT.Gemini v7.1.2