Trueno's Blog


  • 首页

  • 关于

  • 标签

  • 分类

  • 归档

  • 搜索

LongestPalindromicSubstring

发表于 2018-08-19 | 分类于 LeetCode |
字数统计: 3,026

本文主要是介绍利用动态规划与Manacher 算法求解最长回文子串,LeetCode链接

动态规划

问题分析

对于最长回文子串的求解可以抽象为一个动态规划的多阶段决策过程。例如,对于对于字符串S”ababa”回文判断,如果我们知道该回文字符串的子串s”bab”为回文字符串的话,那么显然对于字符串S的判断,只需要判断S左右两端字符是否一致即可。若S左右两端的字符相同,则在s为回文串的前提下,S为回文字符串;若两端字符不相同,则S不是回文字符串。

阅读全文 »

LDA主题模型

发表于 2018-07-27 | 分类于 机器学习 , 主题模型 |
字数统计: 2,943

本文主要是介绍如何利用sklearn框架中LatentDirichletAllocation类完成LDA模型的训练。

理论基础

  LDA是一个无监督的学习模型,它假设每个文档包含多个主题,文档中的每个主题都是基于词的概率分布。作为一个基于贝叶斯网络的文档生成模型,LDA刻画的是文档生成的一个概率化过程。
  LDA的输入由一组文档D组成的词料库。LDA的输出包括文档主题分布$\theta$和主题中的词语的分布$\phi$。这里的$\theta$和$\phi$都假设服从多项式分布。为让分布更平滑,再假设这两个参数的先验分布服从狄利克雷分布,参数分别为$\alpha$和$\beta$。因为狄利克雷分布是多项式分布的共轭先验分布,所以假设该多项式分布的先验服从狄利克雷分布可以极大简化统计计算的过程。狄利克雷分布中有多个参数,再LDA中利用狄利克雷分布时,大多将参数设为同一个数值,这种设为同一个数值的狄利克雷分布称为对称的狄利克雷分布。以下时LDA模型生成一篇文档的方式。

阅读全文 »

基于Jaccard Distance的K-Means++算法

发表于 2018-07-25 | 分类于 机器学习 , 聚类算法 |
字数统计: 937

本文的内容以基于Jaccard Distance的K-Means算法为基础,将原始K-Means算法随机选择初始向量的方法修改为K-Means++的概率选择方法,同样本文K-Means++算法的距离计算同样是基于Jaccard Distance距离的。

理论基础

  原始K-Means算法通过贪心策略,迭代化求解最小平方化误差(K-Means算法的求解过程实际上就是求解最小平方化误差)。但是由于其初始均值向量的选择具有随机性、不确定性,其算法不够稳定,有可能会造成迭代次数较多,算法时间复杂度较高。针对K-Means算法的问题,David Arthur等人提出了K-Means++算法.

  K-Means++算法与K-Means算法的主要差异在于初始均值的选取。选取初始均值向量算法如下:

阅读全文 »

基于Jaccard Distance的K-Means算法

发表于 2018-07-19 | 分类于 机器学习 , 聚类算法 |
字数统计: 3,654

本文主要是介绍如何以Jaccard Distance(JD)为基础,对Twitter的推文数据进行数据聚类。

理论基础

性能度量方式

  聚类性能度量级聚类 即聚类有效性指标(vlidity index),该指标可以分为两类:外部指标(external index),将聚类结果与某个“参考模型”比较;内部指标(internal index),直接分析聚类结果,不利用外部参考模型,以下给出两个内部指标度量方式:Dunn指数(Dunn Index,DI)以及误差平方和(Sum Of The Squared Errors,SSE)。

阅读全文 »
Trueno

Trueno

I can do this all day.

4 日志
4 分类
6 标签
RSS
GitHub E-Mail
0%
© 2018 Trueno
由 Hexo 强力驱动
|
主题 — NexT.Gemini v5.1.4