Tensorflow学习笔记 1
Tensorflow的基本概念
- 使用图(Graphs)来表示计算任务
- 在被称之为会话(Session)的上下文(context)中执行图
- 使用tensor表示数据
- 通过变量(Variable)维护状态
- 使用feed和fetch可以为任何的操作复制或者从中提取数据
第一个Session程序
import tensorflow as tf
# 创建一个常量
# 一行两列
m1 = tf.constant([[3, 3]])
# 两行一列
m2 = tf.constant([[2], [3]])
# 创建operation
# 矩阵乘法
product = tf.matmul(m1, m2)
# 定义一个会话,启动默认的图
sess = tf.Session()
# 执行operation
result = sess.run(product)
print(product)
# 打印结果
print(result)
# 关闭session
sess.close()
还可以像下面一样定义会话
with tf.Session() as sess:
result = sess.run(product)
print(product)
print(result)
这样就不用去关闭这个会话了
执行完会自动关闭
Tensorflow变量的使用
import tensorflow as tf
# 定义一个变量
x = tf.Variable([1,2])
a = tf.constant([3,3])
# 定义一个Operation
sub = tf.subtract(x, a)
# 再定义一个加法的operation
add = tf.add(x, sub)
# 初始化变量
init = tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)
print(sess.run(sub))
print(sess.run(add))
变量的赋值
# 创建一个变量初始化为0
state = tf.Variable(0)
# 定义一个加法的op
new_value = tf.add(state,1)
# 定义一个赋值的op,把新的op的结果赋值给state
update = tf.assign(state,new_value)
# 变量初始化
init = tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)
print(sess.run(state))
for i in range(5):
sess.run(update)
print(sess.run(state))
Tensorflow中的fetch和feed
fetch
在会话中执行多个op,得到运行的结果
input1 = tf.constant(3.0)
input2 = tf.constant(2.0)
input3 = tf.constant(5.0)
add = tf.add(input2,input3)
mul = tf.multiply(input1,add)
with tf.Session() as sess:
# Session中运行两个op
result = sess.run([mul,add])
# 得到两个结果
print(result)
feed
# 定义两个占位符
input1 = tf.placeholder(tf.float32)
input2 = tf.placeholder(tf.float32)
# 定义一个op
add = tf.add(input1,input2)
with tf.Session() as sess:
# feed的数据以字典的形式传入
print(sess.run(add, feed_dict={input1: [7.,2.], input2: [2.,4.]}))
tensorflow简单实例
import numpy as np
import tensorflow as tf
# 生成一百个点
x_data = np.random.rand(100)
y_data = x_data * 0.2 + 2
# 构造一个线性模型
b = tf.Variable(0.)
k = tf.Variable(0.)
y = k * x_data + b
# 代价函数
loss = tf.reduce_mean(tf.square(y_data - y))
# 定义一个梯度下降法来进行训练的优化器
optimizer = tf.train.GradientDescentOptimizer(0.2)
# 定义最小化代价函数
train = optimizer.minimize(loss)
# 初始化变量
init = tf.global_variables_initializer();
with tf.Session() as sess:
sess.run(init)
# 进行迭代
for i in range(200):
sess.run(train)
# 每二十次打印k和b
if i%20 == 0:
print(i,sess.run([k,b]))
使用tensorflow解决回归问题
import matplotlib.pyplot as plt
import numpy as np
import tensorflow as tf
# 使用numpy生成两百个点
x_data = np.linspace(-0.5,0.5,200)[:,np.newaxis]
# 生成干扰
noise = np.random.normal(0,0.02,x_data.shape)
y_data = np.square(x_data) + noise
# 打印一下
plt.scatter(x_data,y_data)
plt.show()
# 定义两个placeholder
x = tf.placeholder(tf.float32,[None,1])
y = tf.placeholder(tf.float32,[None,1])
# 构建神经网络的中间层
# 权值
Weight_L1 = tf.Variable(tf.random_normal([1, 10]))
# 偏置项
bias_L1 = tf.Variable(tf.zeros([1,10]))
# 定义一个op
op = tf.matmul(x,Weight_L1) + bias_L1
# 激活函数
L1 = tf.nn.tanh(op)
# 定义输出层
Weight_L2 = tf.Variable(tf.random_normal([10,1]))
bias_L2 = tf.Variable(tf.random_normal([1,1]))
# 输出层的op
op_L2 = tf.matmul(L1,Weight_L2)+bias_L2
prediction = tf.nn.tanh(op_L2)
# 定义代价函数,二次代价函数
loss = tf.reduce_mean(tf.square(y-prediction))
# 梯度下降法
train = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
# 训练模型
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
for i in range(2000):
sess.run(train,feed_dict={x:x_data,y:y_data})
# 每百次进行打印
if i%100==0:
print(sess.run(loss,feed_dict={x:x_data,y:y_data}))
# 获得预测值
predict_val = sess.run(prediction, feed_dict={x:x_data})
# 画图看一下预测结果
plt.figure()
plt.scatter(x_data, y_data)
plt.plot(x_data,predict_val,'r')
plt.show()