南强小屋 Design By 杰米
本文实例为大家分享了tensorflow实现线性svm的具体代码,供大家参考,具体内容如下
简单方法:
import tensorflow as tf
import numpy as np
from matplotlib import pyplot as plt
def placeholder_input():
x=tf.placeholder('float',shape=[None,2],name='x_batch')
y=tf.placeholder('float',shape=[None,1],name='y_batch')
return x,y
def get_base(_nx, _ny):
_xf = np.linspace(x_min, x_max, _nx)
_yf = np.linspace(y_min, y_max, _ny)
xf1, yf1 = np.meshgrid(_xf, _yf)
n_xf,n_yf=np.hstack((xf1)),np.hstack((yf1))
return _xf, _yf,np.c_[n_xf.ravel(), n_yf.ravel()]
x_data=np.load('x.npy')
y1=np.load('y.npy')
y_data=np.reshape(y1,[200,1])
step=10000
tol=1e-3
x,y=placeholder_input()
w = tf.Variable(np.ones([2,1]), dtype=tf.float32, name="w_v")
b = tf.Variable(0., dtype=tf.float32, name="b_v")
y_pred =tf.matmul(x,w)+b
y_predict =tf.sign( tf.matmul(x,w)+b )
# cost = ∑_(i=1)^N max"htmlcode">
import tensorflow as tf
import numpy as np
from matplotlib import pyplot as plt
class SVM():
def __init__(self):
self.x=tf.placeholder('float',shape=[None,2],name='x_batch')
self.y=tf.placeholder('float',shape=[None,1],name='y_batch')
self.sess=tf.Session()
@staticmethod
def get_base(self,_nx, _ny):
_xf = np.linspace(self.x_min, self.x_max, _nx)
_yf = np.linspace(self.y_min, self.y_max, _ny)
n_xf, n_yf = np.meshgrid(_xf, _yf)
return _xf, _yf,np.c_[n_xf.ravel(), n_yf.ravel()]
def readdata(self):
x_data=np.load('x.npy')
y1=np.load('y.npy')
y_data=np.reshape(y1,[200,1])
return x_data ,y_data
def train(self,step,x_data,y_data):
w = tf.Variable(np.ones([2,1]), dtype=tf.float32, name="w_v")
b = tf.Variable(0., dtype=tf.float32, name="b_v")
self.y_pred =tf.matmul(self.x,w)+b
cost = tf.nn.l2_loss(w)+tf.reduce_sum(tf.maximum(1-self.y*self.y_pred,0))
train_step = tf.train.AdamOptimizer(0.01).minimize(cost)
self.y_predict =tf.sign( tf.matmul(self.x,w)+b )
self.sess.run(tf.global_variables_initializer())
for i in range(step):
self.sess.run(train_step,feed_dict={self.x:x_data,self.y:y_data})
self.y_predict_value,self.w_value,self.b_value,cost_value=self.sess.run([self.y_predict,w,b,cost],feed_dict={self.x:x_data,self.y:y_data})
print('**********cost=%f***********'%cost_value)
def predict(self,y_data):
correct = tf.equal(self.y_predict_value, y_data)
precision=tf.reduce_mean(tf.cast(correct, tf.float32))
precision_value=self.sess.run(precision)
return precision_value
def drawresult(self,x_data):
self.x_min, self.y_min = np.minimum.reduce(x_data,axis=0) -2
self.x_max, self.y_max = np.maximum.reduce(x_data,axis=0) +2
xf, yf , matrix_= self.get_base(self,200, 200)
w_value=self.w_value
b_value=self.b_value
print(w_value,b_value)
z=np.sign(np.matmul(matrix_,self.w_value)+self.b_value).reshape((200,200))
plt.pcolormesh(xf, yf, z, cmap=plt.cm.Paired)
for i in range(200):
if self.y_predict_value[i,0]==1.0:
plt.scatter(x_data[i,0],x_data[i,1],color='r')
else:
plt.scatter(x_data[i,0],x_data[i,1],color='g')
plt.axis([self.x_min,self.x_max,self.y_min ,self.y_max])
#plt.contour(xf, yf, z)
plt.show()
svm=SVM()
x_data,y_data=svm.readdata()
svm.train(5000,x_data,y_data)
precision_value=svm.predict(y_data)
svm.drawresult(x_data)
没有数据的可以用这个
import tensorflow as tf
import numpy as np
from matplotlib import pyplot as plt
class SVM():
def __init__(self):
self.x=tf.placeholder('float',shape=[None,2],name='x_batch')
self.y=tf.placeholder('float',shape=[None,1],name='y_batch')
self.sess=tf.Session()
def creat_dataset(self,size, n_dim=2, center=0, dis=2, scale=1, one_hot=False):
center1 = (np.random.random(n_dim) + center - 0.5) * scale + dis
center2 = (np.random.random(n_dim) + center - 0.5) * scale - dis
cluster1 = (np.random.randn(size, n_dim) + center1) * scale
cluster2 = (np.random.randn(size, n_dim) + center2) * scale
x_data = np.vstack((cluster1, cluster2)).astype(np.float32)
y_data = np.array([1] * size + [-1] * size)
indices = np.random.permutation(size * 2)
x_data, y_data = x_data[indices], y_data[indices]
y_data=np.reshape(y_data,(y_data.shape[0],1))
if not one_hot:
return x_data, y_data
y_data = np.array([[0, 1] if label == 1 else [1, 0] for label in y_data], dtype=np.int8)
return x_data, y_data
@staticmethod
def get_base(self,_nx, _ny):
_xf = np.linspace(self.x_min, self.x_max, _nx)
_yf = np.linspace(self.y_min, self.y_max, _ny)
n_xf, n_yf = np.meshgrid(_xf, _yf)
return _xf, _yf,np.c_[n_xf.ravel(), n_yf.ravel()]
# def readdata(self):
#
# x_data=np.load('x.npy')
# y1=np.load('y.npy')
# y_data=np.reshape(y1,[200,1])
# return x_data ,y_data
def train(self,step,x_data,y_data):
w = tf.Variable(np.ones([2,1]), dtype=tf.float32, name="w_v")
b = tf.Variable(0., dtype=tf.float32, name="b_v")
self.y_pred =tf.matmul(self.x,w)+b
cost = tf.nn.l2_loss(w)+tf.reduce_sum(tf.maximum(1-self.y*self.y_pred,0))
train_step = tf.train.AdamOptimizer(0.01).minimize(cost)
self.y_predict =tf.sign( tf.matmul(self.x,w)+b )
self.sess.run(tf.global_variables_initializer())
for i in range(step):
index=np.random.permutation(y_data.shape[0])
x_data1, y_data1 = x_data[index], y_data[index]
self.sess.run(train_step,feed_dict={self.x:x_data1[0:50],self.y:y_data1[0:50]})
self.y_predict_value,self.w_value,self.b_value,cost_value=self.sess.run([self.y_predict,w,b,cost],feed_dict={self.x:x_data,self.y:y_data})
if i%1000==0:print('**********cost=%f***********'%cost_value)
def predict(self,y_data):
correct = tf.equal(self.y_predict_value, y_data)
precision=tf.reduce_mean(tf.cast(correct, tf.float32))
precision_value=self.sess.run(precision)
return precision_value, self.y_predict_value
def drawresult(self,x_data):
self.x_min, self.y_min = np.minimum.reduce(x_data,axis=0) -2
self.x_max, self.y_max = np.maximum.reduce(x_data,axis=0) +2
xf, yf , matrix_= self.get_base(self,200, 200)
print(self.w_value,self.b_value)
z=np.sign(np.matmul(matrix_,self.w_value)+self.b_value).reshape((200,200))
plt.pcolormesh(xf, yf, z, cmap=plt.cm.Paired)
for i in range(x_data.shape[0]):
if self.y_predict_value[i,0]==1.0:
plt.scatter(x_data[i,0],x_data[i,1],color='r')
else:
plt.scatter(x_data[i,0],x_data[i,1],color='g')
plt.axis([self.x_min,self.x_max,self.y_min ,self.y_max])
# plt.contour(xf, yf, z)
plt.show()
svm=SVM()
x_data,y_data=svm.creat_dataset(size=200, n_dim=2, center=0, dis=4, one_hot=False)
svm.train(5000,x_data,y_data)
precision_value,y_predict_value=svm.predict(y_data)
svm.drawresult(x_data)
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
南强小屋 Design By 杰米
广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
南强小屋 Design By 杰米
暂无使用tensorflow实现线性svm的评论...
《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线
暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。
艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。
《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。