这篇文章主要为大家展示了如何使用Tensorflow tf.tile(),内容简而易懂,希望大家可以学习一下,学习完之后肯定会有收获的,下面让小编带大家一起来看看吧。

tf.tile()应用于需要张量扩展的场景,具体说来就是:

如果现有一个形状如[width, height]的张量,需要得到一个基于原张量的,形状如[batch_size,width,height]的张量,其中每一个batch的内容都和原张量一模一样。tf.tile使用方法如:

tile( input, multiples, name=None)

import tensorflow as tfa = tf.constant([7,19])a1 = tf.tile(a,multiples=[3]) #第一个维度扩充3遍b = tf.constant([[4,5],[3,5]])b1 = tf.tile(b,multiples=[2,3])#第一个维度扩充2遍,第二个维度扩充3遍with tf.Session() as sess: print(sess.run(a)) print(sess.run(a1)) print(sess.run(b)) print(sess.run(b1))

补充知识:tf.tile() 和 tf.contrib.seq2seq.tile_batch()

简单介绍这两个函数的基本用法, 以及区别. 以及在 BeamSearch 的时候用哪个?

# 将input的某一维度复制多少次, len(input.shape()) 等于 len(multiples)# tf.tile(input, multiples, name=None)t = tf.constant([[1, 1, 1, 9], [2, 2, 2, 9], [7, 7, 7, 9]])# 第一维度和第二维度都保持不变z0 = tf.tile(t, multiples=[1, 1])# 第1维度不变, 第二维度复制为2份z1 = tf.tile(t, multiples=[1, 2])# 第1维度复制为两份, 第二维度不变z2 = tf.tile(t, multiples=[2, 1])# tf.contrib.seq2seq.tile_batch(encoder_outputs, multiplier=self.beam_size)encoder_outputs = tf.constant([[[1, 3, 1], [2, 3, 2]], [[2, 3, 4], [2, 3, 2]]])print(encoder_outputs.get_shape()) # (2, 2, 3)# 将batch内的每个样本复制3次, tile_batch() 的第2个参数是一个 int 类型数据z4 = tf.contrib.seq2seq.tile_batch(encoder_outputs, multiplier=3)with tf.Session() as sess: print(sess.run(z0)) print(sess.run(z1)) print(sess.run(z2)) 输出: [[1 1 1 9] [2 2 2 9] [7 7 7 9]] [[1 1 1 9 1 1 1 9] [2 2 2 9 2 2 2 9] [7 7 7 9 7 7 7 9]] [[1 1 1 9] [2 2 2 9] [7 7 7 9] [1 1 1 9] [2 2 2 9] [7 7 7 9]] [[[1 3 1] [2 3 2]] [[1 3 1] [2 3 2]] [[1 3 1] [2 3 2]] [[2 3 4] [2 3 2]] [[2 3 4] [2 3 2]] [[2 3 4] [2 3 2]]]

以上就是关于如何使用Tensorflow tf.tile()的内容,如果你们有学习到知识或者技能,可以把它分享出去让更多的人看到。