京公网安备 11010802034615号
经营许可证编号:京B2-20210330
TensorFlow Datasets(TFDS)是一个用于下载、管理和预处理机器学习数据集的库。它提供了易于使用的API,允许用户从现有集合中选择并下载各种数据集。然而,在一些情况下,用户可能需要使用本地数据集进行模型训练和测试。在本文中,我们将介绍如何使用TFDS加载本地数据集。
为了加载本地数据集,我们需要做以下几个步骤:
1.准备数据集 2.创建TFDS数据集描述文件 3.使用描述文件加载数据集
首先,我们需要准备我们要使用的数据集。这通常涉及到收集、清洗和组织数据,以便可以轻松地访问数据。在本例中,我们将使用一个简单的示例数据集,其中包含数字图像和相应的标签。
该数据集的目录结构类似于以下内容:
data/
0/
image1.png
image2.png
...
1/
image1.png
image2.png
...
...
在上面的目录结构中,每个数字目录代表一个唯一的标签,并包含与该标签相关联的所有图像。
接下来,我们需要创建一个TFDS数据集描述文件。该文件告诉TFDS如何读取和使用我们的本地数据集。描述文件通常是一个Python模块,其中包含有关数据集的元数据和函数,该函数将数据集加载到内存中。
在描述文件中,我们需要定义以下元数据:
1.名称:数据集的名称。 2.版本:数据集的版本号。 3.描述:数据集的简短描述。 4.特征:数据集的特征(例如,输入和输出的形状、数据类型等)。 5.拆分:数据集应该如何划分以进行训练、验证和测试。 6.下载URL(可选):如果数据集没有被打包成一个文件,请提供一个URL以下载数据集。
以下是一个简单的描述文件示例:
import tensorflow_datasets as tfds import os # Define the metadata for the dataset _DESCRIPTION = 'A dataset containing images of digits.' _VERSION = tfds.core.Version('1.0.0')
_NAME = 'my_dataset' def my_dataset(split): # Define the path to the data directory data_dir = os.path.join(os.getcwd(), 'data') # Define the classes classes = ['0', '1', '2', '3', '4', '5', '6', '7', '8', '9'] # Load the data dataset_builder = tfds.builder(_NAME)
dataset_builder.data_dir = data_dir
dataset_builder.add_images(
os.path.join(data_dir, '*/*'),
labels=classes,
) return dataset_builder.as_dataset(split=split)
在上面的代码中,我们定义了一个名为my_dataset的函数,该函数将数据集加载到内存中。我们还定义了元数据,包括数据集的名称、版本和描述,以及数据集的特征和拆分方式。
最后,我们使用tfds.builder()函数创建了一个dataset_builder对象,并使用add_images()方法将图像添加到数据集中。请注意,此处我们使用了data_dir变量来指定数据集的路径。如果您的数据集存在其他位置,则需要更改此变量的值以反映正确的路径。
使用上述描述文件,我们可以通过调用tfds.load()函数来加载本地数据集。这个函数需要传递三个参数:数据集名称、数据集拆分方式和描述文件的路径或模块。
以下是一个简单的例子:
import tensorflow_datasets as tfds # Load the data my_dataset = tfds.load(
name='my_dataset',
split='train',
data_dir='./data',
download=False,
with_info=True,
) # Print
在上面的代码中,我们使用tfds.load()函数来加载名为my_dataset的数据集,使用了train拆分并指定了数据集路径。此外,我们将with_info参数设置为True以获取有关数据集的元信息。
一旦数据集被加载到内存中,我们可以像其他TFDS数据集一样使用它进行训练或测试。
在本文中,我们介绍了如何使用TFDS加载本地数据集。首先,我们准备了数据集,并创建了一个TFDS数据集描述文件。然后,我们使用tfds.load()函数将数据集加载到内存中,并使用它来训练或测试模型。虽然这种方法可能需要更多的手动操作,但它允许用户使用自己的数据集进行机器学习,从而获得更好的控制和灵活性。
相信读完上文,你对算法已经有了全面认识。若想进一步探索机器学习的前沿知识,强烈推荐机器学习之半监督学习课程。
学习入口:https://edu.cda.cn/goods/show/3826?targetId=6730&preview=0
涵盖核心算法,结合多领域实战案例,还会持续更新,无论是新手入门还是高手进阶都很合适。赶紧点击链接开启学习吧!
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
第一章:数据分析思维考点1:UVCA时代的特点考点2:数据分析背后的逻辑思维方法论考点3:流程化企业的数据分析需求考点4:企业数 ...
2026-02-16在数据分析、业务决策、科学研究等领域,统计模型是连接原始数据与业务价值的核心工具——它通过对数据的规律提炼、变量关联分析 ...
2026-02-14在SQL查询实操中,SELECT * 与 SELECT 字段1, 字段2,...(指定个别字段)是最常用的两种查询方式。很多开发者在日常开发中,为了 ...
2026-02-14对CDA(Certified Data Analyst)数据分析师而言,数据分析的核心不是孤立解读单个指标数值,而是构建一套科学、完整、贴合业务 ...
2026-02-14在Power BI实操中,函数是实现数据清洗、建模计算、可视化呈现的核心工具——无论是简单的数据筛选、异常值处理,还是复杂的度量 ...
2026-02-13在互联网运营、产品迭代、用户增长等工作中,“留存率”是衡量产品核心价值、用户粘性的核心指标——而次日留存率,作为留存率体 ...
2026-02-13对CDA(Certified Data Analyst)数据分析师而言,指标是贯穿工作全流程的核心载体,更是连接原始数据与业务洞察的关键桥梁。CDA ...
2026-02-13在机器学习建模实操中,“特征选择”是提升模型性能、简化模型复杂度、解读数据逻辑的核心步骤——而随机森林(Random Forest) ...
2026-02-12在MySQL数据查询实操中,按日期分组统计是高频需求——比如统计每日用户登录量、每日订单量、每日销售额,需要按日期分组展示, ...
2026-02-12对CDA(Certified Data Analyst)数据分析师而言,描述性统计是贯穿实操全流程的核心基础,更是从“原始数据”到“初步洞察”的 ...
2026-02-12备考CDA的小伙伴,专属宠粉福利来啦! 不用拼运气抽奖,不用复杂操作,只要转发CDA真题海报到朋友圈集赞,就能免费抱走实用好礼 ...
2026-02-11在数据科学、机器学习实操中,Anaconda是必备工具——它集成了Python解释器、conda包管理器,能快速搭建独立的虚拟环境,便捷安 ...
2026-02-11在Tableau数据可视化实操中,多表连接是高频操作——无论是将“产品表”与“销量表”连接分析产品销量,还是将“用户表”与“消 ...
2026-02-11在CDA(Certified Data Analyst)数据分析师的实操体系中,统计基本概念是不可或缺的核心根基,更是连接原始数据与业务洞察的关 ...
2026-02-11在数字经济飞速发展的今天,数据已成为核心生产要素,渗透到企业运营、民生服务、科技研发等各个领域。从个人手机里的浏览记录、 ...
2026-02-10在数据分析、实验研究中,我们经常会遇到小样本配对数据的差异检验场景——比如同一组受试者用药前后的指标对比、配对分组的两组 ...
2026-02-10在结构化数据分析领域,透视分析(Pivot Analysis)是CDA(Certified Data Analyst)数据分析师最常用、最高效的核心实操方法之 ...
2026-02-10在SQL数据库实操中,字段类型的合理设置是保证数据运算、统计准确性的基础。日常开发或数据分析时,我们常会遇到这样的问题:数 ...
2026-02-09在日常办公数据分析中,Excel数据透视表是最常用的高效工具之一——它能快速对海量数据进行分类汇总、分组统计,将杂乱无章的数 ...
2026-02-09表结构数据作为结构化数据的核心载体,其“获取-加工-使用”全流程,是CDA(Certified Data Analyst)数据分析师开展专业工作的 ...
2026-02-09