Tensorflow学习笔记 1

Scroll Down

Tensorflow学习笔记 1

Tensorflow的基本概念

  1. 使用图(Graphs)来表示计算任务
  2. 在被称之为会话(Session)的上下文(context)中执行图
  3. 使用tensor表示数据
  4. 通过变量(Variable)维护状态
  5. 使用feed和fetch可以为任何的操作复制或者从中提取数据

第一个Session程序

import tensorflow as tf

# 创建一个常量
# 一行两列
m1 = tf.constant([[3, 3]])
# 两行一列
m2 = tf.constant([[2], [3]])

# 创建operation
# 矩阵乘法
product = tf.matmul(m1, m2)

# 定义一个会话,启动默认的图
sess = tf.Session()

# 执行operation
result = sess.run(product)

print(product)
# 打印结果
print(result)

# 关闭session
sess.close()

还可以像下面一样定义会话

with tf.Session() as sess:
    result = sess.run(product)
    print(product)
    print(result)

这样就不用去关闭这个会话了

执行完会自动关闭

Tensorflow变量的使用

import tensorflow as tf

# 定义一个变量
x = tf.Variable([1,2])
a = tf.constant([3,3])

# 定义一个Operation
sub = tf.subtract(x, a)
# 再定义一个加法的operation
add = tf.add(x, sub)

# 初始化变量
init = tf.global_variables_initializer()

with tf.Session() as sess:
    sess.run(init)
    print(sess.run(sub))
    print(sess.run(add))

变量的赋值

# 创建一个变量初始化为0
state = tf.Variable(0)
# 定义一个加法的op
new_value = tf.add(state,1)
# 定义一个赋值的op,把新的op的结果赋值给state
update = tf.assign(state,new_value)
# 变量初始化
init = tf.global_variables_initializer()

with tf.Session() as sess:
    sess.run(init)
    print(sess.run(state))
    for i in range(5):
        sess.run(update)
    print(sess.run(state))

Tensorflow中的fetch和feed

fetch

在会话中执行多个op,得到运行的结果

input1 = tf.constant(3.0)
input2 = tf.constant(2.0)
input3 = tf.constant(5.0)

add = tf.add(input2,input3)
mul = tf.multiply(input1,add)

with tf.Session() as sess:
    # Session中运行两个op
    result = sess.run([mul,add])
    # 得到两个结果
    print(result)

feed

# 定义两个占位符
input1 = tf.placeholder(tf.float32)
input2 = tf.placeholder(tf.float32)

# 定义一个op
add = tf.add(input1,input2)

with tf.Session() as sess:
    # feed的数据以字典的形式传入
    print(sess.run(add, feed_dict={input1: [7.,2.], input2: [2.,4.]}))

tensorflow简单实例

import numpy as np
import tensorflow as tf

# 生成一百个点
x_data = np.random.rand(100)
y_data = x_data * 0.2 + 2

# 构造一个线性模型
b = tf.Variable(0.)
k = tf.Variable(0.)
y = k * x_data + b

# 代价函数
loss = tf.reduce_mean(tf.square(y_data - y))

# 定义一个梯度下降法来进行训练的优化器
optimizer = tf.train.GradientDescentOptimizer(0.2)
# 定义最小化代价函数
train = optimizer.minimize(loss)
# 初始化变量
init = tf.global_variables_initializer();

with tf.Session() as sess:
    sess.run(init)
    # 进行迭代
    for i in range(200):
        sess.run(train)
        # 每二十次打印k和b
        if i%20 == 0:
            print(i,sess.run([k,b]))

使用tensorflow解决回归问题

import matplotlib.pyplot as plt
import numpy as np
import tensorflow as tf
# 使用numpy生成两百个点
x_data = np.linspace(-0.5,0.5,200)[:,np.newaxis]
# 生成干扰
noise = np.random.normal(0,0.02,x_data.shape)
y_data = np.square(x_data) + noise

# 打印一下
plt.scatter(x_data,y_data)
plt.show()

# 定义两个placeholder
x = tf.placeholder(tf.float32,[None,1])
y = tf.placeholder(tf.float32,[None,1])

# 构建神经网络的中间层
# 权值
Weight_L1 = tf.Variable(tf.random_normal([1, 10]))
# 偏置项
bias_L1 = tf.Variable(tf.zeros([1,10]))

# 定义一个op
op = tf.matmul(x,Weight_L1) + bias_L1
# 激活函数
L1 = tf.nn.tanh(op)

# 定义输出层
Weight_L2 = tf.Variable(tf.random_normal([10,1]))
bias_L2 = tf.Variable(tf.random_normal([1,1]))

# 输出层的op
op_L2 = tf.matmul(L1,Weight_L2)+bias_L2

prediction = tf.nn.tanh(op_L2)

# 定义代价函数,二次代价函数
loss = tf.reduce_mean(tf.square(y-prediction))
# 梯度下降法
train = tf.train.GradientDescentOptimizer(0.1).minimize(loss)

# 训练模型
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    for i in range(2000):
        sess.run(train,feed_dict={x:x_data,y:y_data})
        # 每百次进行打印
        if i%100==0:
            print(sess.run(loss,feed_dict={x:x_data,y:y_data}))

            # 获得预测值
            predict_val = sess.run(prediction, feed_dict={x:x_data})
            # 画图看一下预测结果
            plt.figure()
            plt.scatter(x_data, y_data)
            plt.plot(x_data,predict_val,'r')
            plt.show()