温故以知新:概率论和数理统计

测量

测量是科学的基础。 测量告知我们关于某物的属性。测量的本质是不确定度,理论基础是概率统计。不确定度反映测量结果中真值所在的定量区间及其出现的概率(置信概率)。

平衡树、伸展树和平摊分析

这几天学习了一下平衡树、伸展树和平摊分析的相关知识。

Q-Learning算法以及Python的简单实现

东方欲晓,
莫道君行早。
踏遍青山人未老,
风景这边独好。

毛主席的诗歌开篇,想表达的是今天的天气真好,emmmm,很适合学习!其实这首诗的是毛主席在党内受排挤,丧失发言权的那段日子里所创作,诗词中能透露出他的愤懑,但是更多的是积极乐观的心态和坚韧不拔的品质。所以,每读到这几句诗,就会心生感悟:纵然有千般磨难,也要保持永远不服输、永远年轻的心态。扯远了…

温故以知新:递归算法的分析与设计

理解递归

我们都知道,递归(Recursion)是指在函数的定义中使用函数自身的方法,基本思想在于把问题规模缩小。递归的数学模型是数学归纳法,能将问题规模变小的原因在于原问题与它的子问题有相同的解决逻辑。在数学归纳法中我们需要根据问题的递推关系和假设(第n项情况)推理出n+1项的情况,然后根据已知(初始情况)得到归纳得到整个问题的解。这也是递归程序设计的关键。

递归和循环都提取了重复的逻辑,但是区别在于递归会保持每次问题的状态(在计算机内存中由栈来维护状态),当子问题被解决之后,再恢复原问题。而循环(仅仅只普遍意义上的循环)不会对每次的问题状态进行维护,因为实际上每次循环结束问题已经被解决了,下一次又是一个全新的相同解决过程的问题。

强化学习基本知识总结

强化学习是学习者学会在一定的状态序列下选择最优的策略去最大化奖赏的学习过程。强化学习中的学习者称为agent,它通过与环境不断地交互学会如何选择动作以达到最大化累计收益。贪心的策略得到的累计收益在全局不一定是最优的,因为从长期来看,当前选择最大收益的动作不一定是最好的决定。

温故而知新:线性代数知识回顾

​随着自己阅历的丰富和理解能力的提高,回头再看以前看过的知识,总能从中体会到更多的东西。这是“温故而知新,可以为师矣“的道理。接触机器学习的知识以来,零零散散的温习了很多线性代数的知识点,由于没有系统的梳理归纳过,与这门学科之间总是隔着一层纱。但是从自己今天的知识储备再去理解一些线性代数的知识点,总是能找到一种顿悟的感觉(大一的我就是白痴)。当然,一时半会也写不完知识点,长期更新喽!后面也会拿时间把操作系统、计算机网络(昨天文哥问我计网的一道题,我就像没听说过这门课一样 :cry: )、概率论、算法、数理统计这些学科也温习一下。

Recommend System入门介绍

WHAT

它可以被定义为一种与大型且复杂的信息空间交互并且向用户推荐用户感兴趣的信息或者物品的工具,这里的信息空间指的是所推荐物品(items)的集合,以及这些物品的特征。

iOS开发基础知识

期末周整理的iOS的考点

TensorFlow学习(五):TensorFlow实现进阶的卷积神经网络

前面已经介绍了卷积神经网络的一些基本知识,以及TensorFlow实现了一个简单的两卷积层一全连接层softmax分类的卷积神经网络。下面我们使用一些tricks来实现进阶的卷积神经网络,包括:

  • 对weights进行L2正则化。
  • 对图片进行数据增强,制造更多样本。
  • 在卷积-池化层后面使用LRN层,增强泛化能力。

这里使用的数据集不再是MNIST,而使用CIFAR-10,包含60000张32×32的彩色图像,训练集50000张,测试集10000张,分为10个类别。该数据集很通用,被很多论文用来进行性能对比,也出现在Kaggle的比赛中。

TensorFlow学习(四):TensorFlow实现简单的卷积神经网络

卷积神经网络简介

卷积神经网络(Convolutional Neural Network,CNN)的概念出自于感受野(Receptive Field),即每一个视觉神经元只会处理一小块区域的视觉图像。最初的实现原型叫做神经认知机,包括两类神经元,用来抽取特征的S-cells和用来抗形变的C-cells。这两类神经元,对应我们现在主流CNN中的卷积核滤波操作和激活函数、最大池化等操作。CNN是最早进行多层训练的神经网络结构,原因在于全连接因为参数过多和梯度弥散的问题难以进行多层训练,而CNN很好的利用了空间结构关系减少了参数量,从而提高了反向传播算法的训练的效率。

第一个卷积层会接受图像像素级的输入,每一个卷积操作只处理一小块图像,进行卷积变化以后在传入后面的网络。每一次卷积(滤波器)都会提取数据中最有效的特征。这种方法可以提取图像中最基础的特征,而后在进行组合和抽象得到更高阶的特征,因此理论上CNN具有对图像旋转、平移和缩放的不变性。

Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×