神经网络前向传播和反向传播算法推导

一、目标 推导具有单隐层的神经网络的前向传播和反向传播算法,并进行编程(可以使用sklearn中的神经网络)。 探讨10,30,100,300,1000,不同隐藏节点数对网络性能的影响。 探讨不同学习率和迭代次数对网络性能的影响。 改变数据的标准化方法,探讨对训练的影响。 查阅资料说明什么是Hebb学习规则

发布于 机器学习

Finds算法和ID3算法

作业要求 实现FINDS算法 实现ID3算法 不要调库自己写。如果有能力可以继续用课件里的数据集测试两个算法(用天气的4条记录测试FINDS,用贷款的15条记录测试ID3)给出训练误差测试误差等; 再有能力可以使用更大的数据集测试算法。

发布于 机器学习

Fisher算法&SVM&K-Means及其优化

fisher算法及其实现 请实现fisher算法,并采用自己随机生成2类数据(每类100个)的方式,验证自己的算法。参考资料:https://blog.csdn.net/pengjian444/article/details/71138003

发布于 机器学习

实验室苦逼搬砖暑假生活纪实

记录一下自己暑假在实验室做的一些事情和收获吧。 虽然进步很小很缓慢,但总归是有的。 7月13日 关于论文的主要内容,学长进行了讲解: 任务目标:通过迁移学习实现用户对齐问题,并将对齐结果与其他的用户对其方法进行比较:其中的方法包括“监督类型的”和“非监督类型的”,最终论文里要将我们的方法与其他至少三四种方法进行比较。

发布于 机器学习

「迁移学习简明手册」学习笔记(1)

1.迁移学习的基本概念1.2 迁移学习基本概念 核心问题:找到新问题和原问题之间的相似性,才可以顺利地实现知识的迁移。 定义:迁移学习,是指利用数据、任务、或模型之间的相似性,将在旧领域学习过的模型,应用在新领域的一种学习过程。 1.3 为什么要迁移学习这个表格包括了1.3的所有内容,可以只看这个表格:

发布于 机器学习