当前位置:  开发笔记 > 开发工具 > 正文

数据集API"flat_map"方法为使用"map"方法的相同代码生成错误

如何解决《数据集API"flat_map"方法为使用"map"方法的相同代码生成错误》经验,为你挑选了1个好方法。

我正在尝试使用TensorFlow Dataset API和Pandas创建一个创建管道来读取多个CSV文件.但是,使用该flat_map方法会产生错误.但是,如果我使用map方法,我可以构建代码并在会话中运行它.这是我正在使用的代码.我已经在TensorFlow Github存储库中打开了#17415问题.但显然,这不是一个错误,他们让我发布在这里.

folder_name = './data/power_data/'
file_names = os.listdir(folder_name)
def _get_data_for_dataset(file_name,rows=100):#
    print(file_name.decode())

    df_input=pd.read_csv(os.path.join(folder_name, file_name.decode()),
                         usecols =['Wind_MWh','Actual_Load_MWh'],nrows = rows)
    X_data = df_input.as_matrix()
    X_data.astype('float32', copy=False)

    return X_data
dataset = tf.data.Dataset.from_tensor_slices(file_names)
dataset = dataset.flat_map(lambda file_name: tf.py_func(_get_data_for_dataset, 
[file_name], tf.float64))
dataset= dataset.batch(2)
fiter = dataset.make_one_shot_iterator()
get_batch = iter.get_next()

我收到以下错误:map_func must return a Dataset object.我使用时管道工作没有错误,map但它没有给出我想要的输出.例如,如果Pandas从我的每个CSV文件中读取N行,我希望管道连接B文件中的数据并给我一个形状为数组的数组(N*B,2).相反,它给了我(B,N,2),其中B是批量大小.map添加另一个轴而不是在现有轴上连接.根据我在文档中的理解,flat_map我们应该提供平坦的输出.在本文档中,都mapflat_map回报类型的数据集.那么我的代码如何使用map而不是flat_map?

如果你能指出数据集API与Pandas模块一起使用的代码,那也很棒.



1> mrry..:

正如mikkola在评论中指出的那样,Dataset.map()并且Dataset.flat_map()期望具有不同签名Dataset.map()的函数:采用将输入数据集的单个元素映射到单个新元素Dataset.flat_map()的函数,而采用将输入数据集的单个元素映射到的元素的函数Dataset.元素.

如果您希望返回的数组的每一行_get_data_for_dataset()成为一个单独的元素,您应该使用Dataset.flat_map()并将输出转换tf.py_func()为a Dataset,使用Dataset.from_tensor_slices():

folder_name = './data/power_data/'
file_names = os.listdir(folder_name)

def _get_data_for_dataset(file_name, rows=100):
    df_input=pd.read_csv(os.path.join(folder_name, file_name.decode()),
                         usecols=['Wind_MWh', 'Actual_Load_MWh'], nrows=rows)
    X_data = df_input.as_matrix()
    return X_data.astype('float32', copy=False)

dataset = tf.data.Dataset.from_tensor_slices(file_names)

# Use `Dataset.from_tensor_slices()` to make a `Dataset` from the output of 
# the `tf.py_func()` op.
dataset = dataset.flat_map(lambda file_name: tf.data.Dataset.from_tensor_slices(
    tf.py_func(_get_data_for_dataset, [file_name], tf.float32)))

dataset = dataset.batch(2)

iter = dataset.make_one_shot_iterator()
get_batch = iter.get_next()

推荐阅读
贴进你的心聆听你的世界
这个屌丝很懒,什么也没留下!
DevBox开发工具箱 | 专业的在线开发工具网站    京公网安备 11010802040832号  |  京ICP备19059560号-6
Copyright © 1998 - 2020 DevBox.CN. All Rights Reserved devBox.cn 开发工具箱 版权所有