标签:plt keras 回归 np import 线性 GPU model data
#import keras #import numpy as np #import matplotlib.pyplot as plt #from keras.models import Sequential #全连接层 #from keras.layers import Dense import numpy as np import matplotlib.pyplot as plt from tensorflow import keras from tensorflow.keras.models import Sequential #全连接层 from tensorflow.keras.layers import Dense
x_data = np.random.rand(100) noise = np.random.normal(0,0.01,x_data.shape) y_data = x_data*0.1 + 0.2 + noise plt.scatter(x_data,y_data) plt.show() model = Sequential() #model = multi_gpu_model(model, 1) #GPU个数为2 model.add(Dense(units=1,input_dim=1)) #sgd 随机梯度下降 mse 均方误差 model.compile(optimizer='sgd',loss='mse') for step in range(5000): cost = model.train_on_batch(x_data, y_data) if step % 500 == 0: print('cost:',cost) W,b=model.layers[0].get_weights() print('w:',W,'b:',b) y_pred=model.predict(x_data) plt.scatter(x_data,y_data) plt.plot(x_data,y_pred,'r',lw=2) plt.show()
标签:plt,keras,回归,np,import,线性,GPU,model,data 来源: https://www.cnblogs.com/chinasoft/p/16421733.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。