ACM Contest Algorithms In 10,000 words

很多年没有再接触ACM方面的算法了,不过这一块其实不时还会提到,在此姑且做个简陋的总结,望诸位不吝赐教^_^。

动态规划

动态规划,核心在于定义”状态”及”状态转移方程”,能保证从任意状态开始都会产生该状态下的最优策略(Principle of Optimality)。

基本技巧

  • 定义状态,可以定义”花费刚好为v时的最优值”和”花费至多为v时的最优值”两种;
  • 记录最优方案,则开多一个数组记录来源状态,及状态转移选择(如果来源状态不暗含的话);
  • 求方案总数,最小值等,则将max改成sum、min;
  • 求第K优解,则在状态数组中多开一维(就是每个状态变一个队列),记录前K优解。

Game Theory(from Coursera)'s Summary

最近没事又跑到C站补了博弈论的公开课。其实讲得很少也很浅。不过这类内功修炼下还是有点感觉的,时不时会在论文中突然就出现个纳什均衡帕累托最优什么的呢。

Concepts

Strategy: 某个Player可以做的选择
Action: 所有Player作出的Strategy的某个交集
Best Response: 这名玩家在当前情况下得益最高的选择(可能有等值的好几个)
Nash Equilibrium: 没有玩家愿意偏离的策略集(注意是情况已经出现,对方策略必定已知。当前情况下全是Best Response,没有明显更好的选择了)
Strictly Dominant Strategy: 这个选择比其他选择在每一种情况下值都更优。被dominate的策略是可以直接扔掉不要的
Weakly Dominant Strategy: 相比上面可以是某个更优其他同等。扔掉被它dominate的可能会连带扔走其中一个纳什均衡哦,虽然肯定不是最后一个)
Pareto Optimality: 没有其他策略Pareto Dominate(某些得益更高,其他得益也至少相等)的策略

Machine Learning Lecture & Basis Summary

(本文最后修改于2015/11/17)

谨在此总结机器学习的一些基础知识,作为研究生阶段的基础吧,总结来源包括

  1. Machine Learning - Coursera - Andrew Ng
  2. An Introduction to Statistical Learning with Applications in R - Gareth James et. al.

机器学习,主要是训练一个函数模型来对某个目标作出预测,如逼近数据中的response(有监督学习)、表达数据的结构(无监督学习)等。训练过程是不断迭代修改模型参数,来优化某个衡量指标(cost function)的过程。
以下提到的基础算法都是离线的,数据集中每个数据只使用通过一次。

有监督学习

有监督学习可以做分类和估值。

Install Mathjax for Hexo Blog

添加了一下Mathjax插件,添加方法里面的Readme已经说得很好了。虽然好像还是有些慢。准备有空再研究下韩冬同学的
主要是后面机器学习方面的博客应该会写得很多吧……虽然Latex的写法还是有点不适应呢
Latex参考
$$
f\left(x\right) = \frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{\left(x-\mu\right)^2}{2\sigma^2}}
$$

Mathjax和Markdown还是比较容易有冲突的,写公式的时候要注意:

  • 下划线、空格前加上’\’
  • 大括号之类的Markdown保留字需要这样写:”\\{“
  • ~符号不能用

另外Markdown本身要注意的点包括

  • *符之前记得加反斜杠
  • 链接语法的链接url中不能有括号
  • 每个列表后要空一行

Hello, Hexo Blog!

呼呼,一直想搭个博客,但是一直太懒了=.=…还跑到jekyll bootstrap那里去走了一些弯路。直到发现了Hexo。实在太赞!

下面就写一下搭建Hexo博客的主要流程好了。顺便给自己备忘备忘。
因为是回忆用,所以博客文章写得会尽可能地精简,直白,不拘小节,向当年Matrix67超牛的5000字总结看齐。各种总结也会是以后主题。会中文这种冗余超低的语言,总结起来真的是超幸福的好嘛!
哈哈,不过会尽可能地说浅显的啦!
希望能够一直坚持吧!这个过程不免漫长而痛苦。不过这一年的面试经验说明,不努力一下,遗忘曲线两年就会到底的啦!甚至可以遇见我研究生之后找工作的最大担心就是本科的知识丢得差不多了吧= =b当年信息安全实验课漏掉了的笔记和程序真是让我超级超级心痛啊啊啊TAT!