南强小屋 Design By 杰米
BP神经网络是最简单的神经网络模型了,三层能够模拟非线性函数效果。
难点:
- 如何确定初始化参数?
- 如何确定隐含层节点数量?
- 迭代多少次?如何更快收敛?
- 如何获得全局最优解?
''' neural networks created on 2019.9.24 author: vince ''' import math import logging import numpy import random import matplotlib.pyplot as plt ''' neural network ''' class NeuralNetwork: def __init__(self, layer_nums, iter_num = 10000, batch_size = 1): self.__ILI = 0; self.__HLI = 1; self.__OLI = 2; self.__TLN = 3; if len(layer_nums) != self.__TLN: raise Exception("layer_nums length must be 3"); self.__layer_nums = layer_nums; #array [layer0_num, layer1_num ...layerN_num] self.__iter_num = iter_num; self.__batch_size = batch_size; def train(self, X, Y): X = numpy.array(X); Y = numpy.array(Y); self.L = []; #initialize parameters self.__weight = []; self.__bias = []; self.__step_len = []; for layer_index in range(1, self.__TLN): self.__weight.append(numpy.random.rand(self.__layer_nums[layer_index - 1], self.__layer_nums[layer_index]) * 2 - 1.0); self.__bias.append(numpy.random.rand(self.__layer_nums[layer_index]) * 2 - 1.0); self.__step_len.append(0.3); logging.info("bias:%s" % (self.__bias)); logging.info("weight:%s" % (self.__weight)); for iter_index in range(self.__iter_num): sample_index = random.randint(0, len(X) - 1); logging.debug("-----round:%s, select sample %s-----" % (iter_index, sample_index)); output = self.forward_pass(X[sample_index]); g = (-output[2] + Y[sample_index]) * self.activation_drive(output[2]); logging.debug("g:%s" % (g)); for j in range(len(output[1])): self.__weight[1][j] += self.__step_len[1] * g * output[1][j]; self.__bias[1] -= self.__step_len[1] * g; e = []; for i in range(self.__layer_nums[self.__HLI]): e.append(numpy.dot(g, self.__weight[1][i]) * self.activation_drive(output[1][i])); e = numpy.array(e); logging.debug("e:%s" % (e)); for j in range(len(output[0])): self.__weight[0][j] += self.__step_len[0] * e * output[0][j]; self.__bias[0] -= self.__step_len[0] * e; l = 0; for i in range(len(X)): predictions = self.forward_pass(X[i])[2]; l += 0.5 * numpy.sum((predictions - Y[i]) ** 2); l /= len(X); self.L.append(l); logging.debug("bias:%s" % (self.__bias)); logging.debug("weight:%s" % (self.__weight)); logging.debug("loss:%s" % (l)); logging.info("bias:%s" % (self.__bias)); logging.info("weight:%s" % (self.__weight)); logging.info("L:%s" % (self.L)); def activation(self, z): return (1.0 / (1.0 + numpy.exp(-z))); def activation_drive(self, y): return y * (1.0 - y); def forward_pass(self, x): data = numpy.copy(x); result = []; result.append(data); for layer_index in range(self.__TLN - 1): data = self.activation(numpy.dot(data, self.__weight[layer_index]) - self.__bias[layer_index]); result.append(data); return numpy.array(result); def predict(self, x): return self.forward_pass(x)[self.__OLI]; def main(): logging.basicConfig(level = logging.INFO, format = '%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s', datefmt = '%a, %d %b %Y %H:%M:%S'); logging.info("trainning begin."); nn = NeuralNetwork([2, 2, 1]); X = numpy.array([[0, 0], [1, 0], [1, 1], [0, 1]]); Y = numpy.array([0, 1, 0, 1]); nn.train(X, Y); logging.info("trainning end. predict begin."); for x in X: print(x, nn.predict(x)); plt.plot(nn.L) plt.show(); if __name__ == "__main__": main();
具体收敛效果
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
标签:
python,bp神经网络
南强小屋 Design By 杰米
广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
南强小屋 Design By 杰米
暂无基于python的BP神经网络及异或实现过程解析的评论...
《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线
暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。
艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。
《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。