import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
rng = np.random
# Parameters
learning_rate = 0.01
training_epochs = 1000
display_step = 50
batch_size = 10
# Training Data
train_X = np.asarray([3.3,4.4,5.5,6.71,6.93,4.168,9.779,6.182,7.59,2.167,
7.042,10.791,5.313,7.997,5.654,9.27,3.1])
train_Y = np.asarray([1.7,2.76,2.09,3.19,1.694,1.573,3.366,2.596,2.53,1.221,
2.827,3.465,1.65,2.904,2.42,2.94,1.3])
n_samples = train_X.shape[0]
print n_samples
# tf Graph Input
X = tf.placeholder("float",[None,1])
Y = tf.placeholder("float",[None,1])
# Set model weights
W = tf.Variable(rng.randn(), name="weight")
b = tf.Variable(rng.randn(), name="bias")
# 正向计算
pred = tf.add(tf.multiply(W, X), b)
# 损失函数
#MSE:均方误差
cost = tf.reduce_mean(tf.pow(pred-Y, 2))
#设置梯度下降优化
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)
# 初始化所有变量
init = tf.global_variables_initializer()
# Start training
with tf.Session() as sess:
sess.run(init)
# Fit all training data
for epoch in range(training_epochs):
rand_index = np.random.choice(len(train_X), size=batch_size)
rand_x = train_X[rand_index]
rand_y = train_Y[rand_index]
sess.run(optimizer, feed_dict={X: rand_x[:,None], Y: rand_y[:,None]})
#Display logs per epoch step
if (epoch+1) % display_step == 0:
c = sess.run(cost, feed_dict={X: train_X[:,None], Y:train_Y[:,None]})
print "Epoch:", '%04d' % (epoch+1), "cost=", "{:.9f}".format(c), \
"W=", sess.run(W), "b=", sess.run(b)
print "Optimization Finished!"
training_cost = sess.run(cost, feed_dict={X: train_X[:,None], Y: train_Y[:,None]})
print "Training cost=", training_cost, "W=", sess.run(W), "b=", sess.run(b), '\n'
#Graphic display
plt.plot(train_X, train_Y, 'ro', label='Original data')
plt.plot(train_X, sess.run(W) * train_X + sess.run(b), label='Fitted line')
plt.legend()
plt.show()
相关推荐
TensorNet-TF, TensorNet ( TensorFlow实现) TensorNet这是神经网络张量列压缩方法的TensorFlow实现。 它支持 tt 层 [1] 和 tt,它对应于完全连接和卷积层,但它的性能更高,更适合使用。 tt fc层也比它的未压缩模拟...
Bi-LSTM使用Tensorflow实现序列标记。 建立(双向)LSTM模型的基准。 模型中使用的超参数: learning_rate-学习率的初始值 max_lr_epoch-在max_lr_epoch之后,学习率将降低 num_layers- (Bi)LSTM层数 num_steps-...
该存储库是IDN(CVPR16)的TensorFlow实现。 您可以从论文和作者的项目资料库中查看更多详细信息 Github: 论文: 网络结构 IDN-TensorFlow /模型/network.py FBlock:功能提取块 DBlock:信息蒸馏块 包括增强...
UCDAN的Tensorflow实现 准备数据 cd数据/ tar -zxvf amazon.tar.gz 焦油-zxvf webcam.tar.gz tar -zxvf dslr.tar.gz 准备预先训练的模型 通过获取AlexNet预训练模型通过获取ResNet-50预训练模型 交易脚本 对于...
添加--v2来训练MoCov2,该MoCov2使用额外的MLP层,额外的扩充和余弦LR时间表。 线性分类: 要使用预训练的特征训练线性分类器,请运行: ./main_lincls.py --load /path/to/pretrained/checkpoint --data /path/to...
TensorFlow(ESPCN)中高效子像素卷积神经网络的TensorFlow实现。 基于网络和本改编的代码。 这个网络可以实现的实时性能 ,同时也超越了质量 。 先决条件 Python 2.7 TensorFlow 脾气暴躁的 Scipy版本> 0.18 ...
人工智能-spark
SSD(单发MultiBox检测器)-Tensorflow 2.0 准备 下载PASCAL VOC数据集(2007或2012)并从./data提取 安装必要的依赖项: pip install -r requirements.txt 训练 训练脚本的参数: >> python train.py --help ...
推荐算法实战 tensorflow实现
该项目是TensorFlow实现的一种多任务学习方法,该方法在论文《。 争论 --lr,学习率 --n_epoch,纪元数 --n_batch_size,最小批处理大小 --reg_lambda,L2正则化lambda --keep_prob,退出保持概率 --cross_stitch_...
该存储库是VDSR(CVPR16)的TensorFlow实现。 您可以从论文和作者的项目页面中查看更多详细信息 项目页面: 纸 : 网络结构 VDSR-TensorFlow /模型/network.py ILR表示插值的低分辨率图像 SR表示重建的超分辨率图像 ...
基于零售电商客户流失模型,基于tensorflow,xgboost4j-spark实现线性模型LR,FM,GBDT,RF,进行模型效果对比,离线在线serving部署方式总结。.zip
为了找到最佳超参数,例如actor_lr或critic_lr ,已实现了简单的网格搜索。 它根据CPU内核的数量并行启动训练器的多个实例。 python hypersearch.py 猜测和环境 这是论文中描述的一个简单游戏,用于测试通讯是否...
的的Keras实现-TIP 2020 内容 入门 克隆存储库 先决条件 Tensorflow 2.2.0+ Tensorflow_addons Python 3.6+ Keras 2.3.0 皮尔 麻木 pip install - r requirements . txt 跑步 训练 预处理 下载和。 运行此文件...
学习速率调度程序包Tensorflow PyTorch-Keras 学习率计划旨在通过根据预定义的功能/时间表降低lr来更改神经网络训练期间的学习率。 有许多受欢迎的学习率调度程序可供使用, 步进衰减 指数衰减 余弦衰变 K衰变 ...
文中采用自适应二值化方法实现手写数字与背景的分割,利用基于方向投影的改进算法将各个数字依次进行分割提取,通过手写Minist训练数据集对卷积神经网络的LeNet-5模型进行训练,利用Tensorflow实现了单幅图像内多个...
可以找到原始的TensorFlow实现 环境要求 您可以简单地运行pip install -r requirements.txt 在此实现中,我们将Python 3.7.5与CUDA 10.1结合使用。 所需的软件包如下: pytorch == 1.3.1 numpy == 1.16.4 scipy == ...
Tensorflow中的单图像超分辨率SRGAN的Tensorflow实现在[1]中提出。结果我以这种方式训练了模型: SRResNet的90k迭代(选择:MSE) SRGAN的70k迭代(选择:MSE) SRGAN的40k迭代(选择:VGG_loss) 输入x4(LR,立方...
在我们建议的神经网络框架下,我们还发布了分解机的TensorFlow实现。 如果您使用我们的代码,请引用我们的SIGIR'17论文。 谢谢! 作者:何湘南博士() 运行代码的示例。 python NeuralFM.py --dataset frappe --...
XLearning是一款支持多种机器学习、深度学习框架调度系统。基于Hadoop Yarn完成了对TensorFlow、MXNet、Caffe、Theano、PyTorch、Keras、XGBoost等常用框架的集成,同时具备良好的扩展性和兼容性。