机器学习和生物信息学实验室联盟

 找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 2624|回复: 0
打印 上一主题 下一主题

生成学习算法(转载)

[复制链接]
跳转到指定楼层
楼主
发表于 2012-3-14 08:48:42 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
网易公开课机器学习的第五节。
generative algorithms主要是通过先验概率来预测后验概率。先验概率包括两部分,一是对数据分布的先验假设,二是对结果的似然估计。也就是p(y)的分布模型,以及p(x|y)的频率。其中y是类别,x是特征向量。算出这两个模型的参数后,就可以计算后延概率p(y|x)。
一种计算p(y|x)的方法是利用计算好的模型分别比较p(x|y)p(y),另一种是把先验概率转化为后验概率,然后根据最大似然(mle)来估计参数。如果是高斯判别(也就是假定数据符合高斯分布),则后验概率的形式是逻辑回归(logistic regression)。另外指数分布等几个分布,转化为后验概率形式后,都是逻辑回归。
除了用高斯判别算法(gaussian discriminative algorithm)形式化的说明generative algorithm,还讲了朴素贝叶斯(naive bayes)。nb算法主要就是根据先验概率算出数据分布p(xi|y),然后根据独立概率分布假设,来计算联合概率p(x|y),最后用贝叶斯公式转化为后验概率形式来做判别。
另外降了拉普拉斯(laplace)平滑方法。其实就是对于稀疏数据给一个很小的因子(factor),保证算法更合理(相当于加入了对未知知识的低概率估计)。
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 转播转播 分享分享
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

机器学习和生物信息学实验室联盟  

GMT+8, 2024-11-24 14:12 , Processed in 0.074996 second(s), 20 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表