干净的数据 数据清洗入门与实践

干净的数据 数据清洗入门与实践 pdf epub mobi txt 电子书 下载 2025

斯夸尔(Megan Squire) 著,任政委 译
图书标签:
  • 数据清洗
  • 数据质量
  • 数据分析
  • Python
  • 数据预处理
  • 数据 wrangling
  • Pandas
  • 数据可视化
  • 统计学
  • 机器学习
想要找书就要到 静思书屋
立刻按 ctrl+D收藏本页
你会得到大惊喜!!
出版社: 人民邮电出版社
ISBN:9787115420473
版次:01
商品编码:11932480
包装:平装
丛书名: 图灵程序设计丛书
开本:16开
出版时间:2016-04-01
页数:188
正文语种:中文

具体描述

编辑推荐

数据清洗是数据挖掘与分析过程中不可缺少的一个环节,但因为数据类型极其复杂,传统的清洗脏数据工作单调乏味且异常辛苦。如果能利用正确的工具和方法,就可以让数据清洗工作事半功倍。
本书从文件格式、数据类型、字符编码等基本概念讲起,通过真实的示例,探讨如何提取和清洗关系型数据库、网页文件和PDF文档中的数据。提供了两个真实的项目,让读者将所有数据清洗技术付诸实践,完成整个数据科学过程。
如果你是一位数据科学家,或者从事数据科学工作,哪怕是位新手,只要对数据清洗有兴趣,那么本书就适合你阅读!
- 理解数据清洗在整个数据科学过程中的作用
- 掌握数据清洗的基础知识,包括文件清洗、数据类型、字符编码等
- 发掘电子表格和文本编辑器中与数据组织和操作相关的重要功能
- 学会常见数据格式的相互转换,如JSON、CSV和一些特殊用途的格式
- 采用三种策略来解析和清洗HTML文件中的数据
- 揭开PDF文档的秘密,提取需要的数据
- 借助一系列解决方案来清洗存放在关系型数据库里的坏数据
- 创建自己的干净数据集,为其打包、添加授权许可并与他人共享
- 使用书中的工具以及Twitter和Stack Overflow数据,完成两个真实的项目

内容简介

本书主要内容包括:数据清洗在数据科学领域中的重要作用,文件格式、数据类型、字符编码的基本概念,组织和处理数据的电子表格与文本编辑器,各种格式数据的转换方法,解析和清洗网页上的HTML 文件的三种策略,提取和清洗PDF 文件中数据的方法,检测和清除RDBMS 中的坏数据的解决方案,以及使用书中介绍的方法清洗来自Twitter 和Stack Overflow 的数据。

作者简介

Megan Squire 依隆大学计算科学专业教授,主要教授数据库系统、Web开发、数据挖掘和数据科学课程。有二十年的数据收集与清洗经验。她还是FLOSSmole研究项目的领导者,致力于收集与分析数据,以便研究免费软件、自由软件和开源软件的开发。

目录

目录

第1 章 为什么需要清洗数据 1
1.1 新视角 1
1.2 数据科学过程 2
1.3 传达数据清洗工作的内容 3
1.4 数据清洗环境 4
1.5 入门示例 5
1.6 小结 9
第2 章 基础知识——格式、 类型与编码 11
2.1 文件格式 11
2.1.1 文本文件与二进制文件 11
2.1.2 常见的文本文件格式 14
2.1.3 分隔格式 14
2.2 归档与压缩 20
2.2.1 归档文件 20
2.2.2 压缩文件 21
2.3 数据类型、空值与编码 24
2.3.1 数据类型 25
2.3.2 数据类型间的相互转换 29
2.3.3 转换策略 30
2.3.4 隐藏在数据森林中的空值 37
2.3.5 字符编码 41
2.4 小结 46
第3 章 数据清洗的老黄牛——电子表格和文本编辑器 47
3.1 电子表格中的数据清洗 47
3.1.1 Excel 的文本分列功能 47
3.1.2 字符串拆分 51
3.1.3 字符串拼接 51
3.2 文本编辑器里的数据清洗 54
3.2.1 文本调整 55
3.2.2 列选模式 56
3.2.3 加强版的查找与替换功能 56
3.2.4 文本排序与去重处理 58
3.2.5 Process Lines Containing 60
3.3 示例项目 60
3.3.1 第一步:问题陈述 60
3.3.2 第二步:数据收集 60
3.3.3 第三步:数据清洗 61
3.3.4 第四步:数据分析 63
3.4 小结 63
第4 章 讲通用语言——数据转换 64
4.1 基于工具的快速转换 64
4.1.1 从电子表格到CSV 65
4.1.2 从电子表格到JSON 65
4.1.3 使用phpMyAdmin 从SQL语句中生成CSV 或JSON 67
4.2 使用PHP 实现数据转换 69
4.2.1 使用PHP 实现SQL 到JSON的数据转换 69
4.2.2 使用PHP 实现SQL 到CSV的数据转换 70
4.2.3 使用PHP 实现JSON 到CSV的数据转换 71
4.2.4 使用PHP 实现CSV 到JSON的数据转换 71
4.3 使用Python 实现数据转换 72
4.3.1 使用Python 实现CSV 到JSON的数据转换 72
4.3.2 使用csvkit 实现CSV 到JSON的数据转换 73
4.3.3 使用Python 实现JSON 到CSV的数据转换 74
4.4 示例项目 74
4.4.1 第一步:下载GDF 格式的Facebook 数据 75
4.4.2 第二步:在文本编辑器中查看GDF 文件 75
4.4.3 第三步:从GDF 格式到JSON格式的转换 76
4.4.4 第四步:构建D3 图 79
4.4.5 第五步:把数据转换成Pajek格式 81
4.4.6 第六步:简单的社交网络分析 83
4.5 小结 84
第5 章 收集并清洗来自网络的数据 85
5.1 理解HTML 页面结构 85
5.1.1 行分隔模型 86
5.1.2 树形结构模型 86
5.2 方法一:Python 和正则表达式 87
5.2.1 第一步:查找并保存实验用的Web 文件 88
5.2.2 第二步:观察文件内容并判定有价值的数据 88
5.2.3 第三步:编写Python 程序把数据保存到CSV 文件中 89
5.2.4 第四步:查看文件并确认清洗结果 89
5.2.5 使用正则表达式解析HTML的局限性 90
5.3 方法二:Python 和BeautifulSoup 90
5.3.1 第一步:找到并保存实验用的文件 90
5.3.2 第二步:安装BeautifulSoup 91
5.3.3 第三步:编写抽取数据用的Python 程序 91
5.3.4 第四步:查看文件并确认清洗结果 92
5.4 方法三:Chrome Scraper 92
5.4.1 第一步:安装Chrome 扩展Scraper 92
5.4.2 第二步:从网站上收集数据 92
5.4.3 第三步:清洗数据 94
5.5 示例项目:从电子邮件和论坛中抽取数据 95
5.5.1 项目背景 95
5.5.2 第一部分:清洗来自Google Groups 电子邮件的数据 96
5.5.3 第二部分:清洗来自网络论坛的数据 99
5.6 小结 105
第6 章 清洗PDF 文件中的数据 106
6.1 为什么PDF 文件很难清洗 106
6.2 简单方案——复制 107
6.2.1 我们的实验文件 107
6.2.2 第一步:把我们需要的数据复制出来 108
6.2.3 第二步:把复制出来的数据粘贴到文本编辑器中 109
6.2.4 第三步:轻量级文件 110
6.3 第二种技术——pdfMiner 111
6.3.1 第一步:安装pdfMiner 111
6.3.2 第二步:从PDF 文件中提取文本 111
6.4 第三种技术——Tabula 113
6.4.1 第一步:下载Tabula 113
6.4.2 第二步:运行Tabula 113
6.4.3 第三步:用Tabula 提取数据 114
6.4.4 第四步:数据复制 114
6.4.5 第五步:进一步清洗 114
6.5 所有尝试都失败之后——第四种技术 115
6.6 小结 117
第7 章 RDBMS 清洗技术 118
7.1 准备 118
7.2 第一步:下载并检查Sentiment140 119
7.3 第二步:清洗要导入的数据 119
7.4 第三步:把数据导入MySQL 120
7.4.1 发现并清洗异常数据 121
7.4.2 创建自己的数据表 122
7.5 第四步:清洗&字符 123
7.6 第五步:清洗其他未知字符 124
7.7 第六步:清洗日期 125
7.8 第七步:分离用户提及、标签和URL 127
7.8.1 创建一些新的数据表 128
7.8.2 提取用户提及 128
7.8.3 提取标签 130
7.8.4 提取URL 131
7.9 第八步:清洗查询表 132
7.10 第九步:记录操作步骤 134
7.11 小结 135
第8 章 数据分享的最佳实践 136
8.1 准备干净的数据包 136
8.2 为数据编写文档 139
8.2.1 README 文件 139
8.2.2 文件头 141
8.2.3 数据模型和图表 142
8.2.4 维基或CMS 144
8.3 为数据设置使用条款与许可协议 144
8.4 数据发布 146
8.4.1 数据集清单列表 146
8.4.2 Stack Exchange 上的OpenData 147
8.4.3 编程马拉松 147
8.5 小结 148
第9 章 Stack Overflow 项目 149
9.1 第一步:关于Stack Overflow 的问题 149
9.2 第二步:收集并存储Stack Overflow数据 151
9.2.1 下载Stack Overflow 数据 151
9.2.2 文件解压 152
9.2.3 创建MySQL 数据表并加载数据 152
9.2.4 构建测试表 154
9.3 第三步:数据清洗 156
9.3.1 创建新的数据表 157
9.3.2 提取URL 并填写新数据表 158
9.3.3 提取代码并填写新表 159
9.4 第四步:数据分析 161
9.4.1 哪些代码分享网站最为流行 161
9.4.2 问题和答案中的代码分享网站都有哪些 162
9.4.3 提交内容会同时包含代码分享URL 和程序源代码吗 165
9.5 第五步:数据可视化 166
9.6 第六步:问题解析 169
9.7 从测试表转向完整数据表 169
9.8 小结 170
第10 章 Twitter 项目 171
10.1 第一步:关于推文归档数据的问题 171
10.2 第二步:收集数据 172
10.2.1 下载并提取弗格森事件的数据文件 173
10.2.2 创建一个测试用的文件 174
10.2.3 处理推文ID 174
10.3 第三步:数据清洗 179
10.3.1 创建数据表 179
10.3.2 用Python 为新表填充数据 180
10.4 第四步:简单的数据分析 182
10.5 第五步:数据可视化 183
10.6 第六步:问题解析 186
10.7 把处理过程应用到全数据量(非测试用)数据表 186
10.8 小结 187

前言/序言


《洞察数据:信息时代的价值挖掘与商业实践》 在这信息爆炸的时代,数据已然成为驱动决策、塑造未来、创造价值的核心要素。然而,原始的数据往往如同未经雕琢的璞玉,杂乱无章,充斥着错误、遗漏和不一致,直接应用如同缘木求鱼,甚至可能误导判断,带来难以估量的损失。正因如此,如何从海量、复杂的数据中提取出有价值的信息,成为企业在激烈竞争中脱颖而出、实现可持续发展的关键能力。 《洞察数据:信息时代的价值挖掘与商业实践》一书,正是为应对这一挑战而生。它并非仅仅聚焦于数据处理的技术细节,而是从更宏观、更具战略性的视角,深入探讨了如何在数字洪流中构建一套完整的数据价值挖掘体系,并将其有效地融入到实际的商业运营之中。本书旨在为读者勾勒出一幅清晰的蓝图,指引他们如何将原始数据转化为驱动业务增长的强大引擎。 第一部分:理解数据价值的本质与驱动力 在深入探讨技术与实践之前,本书首先回归到数据价值的本源。我们为何需要数据?数据究竟能为商业带来什么?这一部分将带领读者审视数据在现代商业环境中的核心地位。 数据作为新石油: 借用“数据是新的石油”这一经典比喻,本书将深入剖析数据如何如同石油一样,经过提炼、加工,能够产生巨大的经济价值。我们将探讨不同类型数据的价值表现,例如用户行为数据可以驱动个性化推荐,交易数据可以优化库存管理,传感器数据可以实现预测性维护等等。 商业决策的基石: 传统商业决策往往依赖经验和直觉,但日益复杂多变的市场环境使得这种方式的风险增高。《洞察数据》强调,基于数据的决策能够提供更客观、更精准的依据,从而降低风险,提高成功率。我们将分析数据如何支持市场分析、客户细分、产品开发、风险评估等关键业务环节。 驱动创新与增长: 数据不仅仅是支持现有业务的工具,更是激发创新、驱动增长的催化剂。本书将探讨数据如何帮助企业发现新的市场机会,优化产品或服务,甚至催生全新的商业模式。例如,通过分析用户反馈和使用习惯,企业可以迭代升级产品,满足用户日益增长的需求,从而在市场中占据优势。 构建数据驱动的组织文化: 技术的应用离不开人的支持,而组织文化的转变同样至关重要。本书将讨论如何从组织层面培养数据驱动的思维方式,鼓励员工利用数据解决问题,将数据分析的意识渗透到日常工作中,最终实现全员参与的数据价值挖掘。 第二部分:构建坚实的数据基础——从信息到洞察的转化路径 要实现数据价值,首先需要建立起一套高效、可靠的数据处理与分析流程。这一部分将着重阐述如何从零散的信息中提炼出具有洞察力的知识。 数据采集策略与技术: 数据的生命周期始于采集。本书将详细介绍各种数据采集的渠道和方法,包括但不限于:线上行为追踪(网站日志、APP埋点)、传感器数据(IoT设备)、第三方数据购买、调查问卷、社交媒体爬取等。同时,也会探讨不同采集技术的技术特点、优缺点以及适用场景,确保数据来源的广泛性和代表性。 数据存储与管理: 海量数据的有效存储与管理是后续分析的基础。本书将介绍业界主流的数据存储方案,如关系型数据库(MySQL, PostgreSQL)、NoSQL数据库(MongoDB, Cassandra)、数据仓库(Snowflake, Redshift)、数据湖(Hadoop HDFS, S3)等。重点将放在不同存储技术的适用性、性能优化、数据治理原则以及如何构建可扩展的数据基础设施。 数据整合与互联互通: 在实际业务中,数据往往分散在不同的系统和部门。本书将深入探讨数据整合的挑战与解决方案。我们将介绍ETL(Extract, Transform, Load)和ELT(Extract, Load, Transform)等数据集成技术,以及API集成、消息队列等方法,确保数据在企业内部能够顺畅流通,形成统一的数据视图。 元数据管理与数据目录: 数据的“身份证”——元数据,对于理解和使用数据至关重要。本书将强调元数据管理的重要性,包括数据定义、数据来源、数据质量、数据所有权等信息的记录和维护。同时,也会介绍数据目录的应用,帮助用户快速查找、理解和发现可用的数据集,提高数据利用效率。 数据安全与合规性: 在数据价值挖掘的过程中,数据安全与合规性是不可忽视的基石。本书将重点讨论数据加密、访问控制、数据脱敏、隐私保护(如GDPR, CCPA等法规遵从)等关键议题,以及如何在数据利用与合规之间找到平衡点,保障企业和用户数据的安全。 第三部分:数据分析的艺术与科学——从发现模式到预测趋势 数据收集和整理完毕后,便进入了数据分析的核心环节。这一部分将带领读者领略数据分析的魅力,掌握从数据中洞察规律、预测未来的方法。 探索性数据分析(EDA): 在深入建模之前,EDA是理解数据特性的重要步骤。本书将介绍常用的EDA技术,如数据可视化(散点图、折线图、柱状图、热力图等)、统计摘要(均值、中位数、标准差)、相关性分析、分布分析等,帮助读者快速了解数据的分布、异常值、潜在关系,为后续分析提供方向。 统计学在数据分析中的应用: 统计学是数据分析的基石。本书将深入浅出地介绍常用的统计学概念和方法,包括假设检验、回归分析(线性回归、逻辑回归)、方差分析、时间序列分析等,并结合实际案例说明如何运用这些工具来验证假设、识别变量间的关系、预测未来走势。 机器学习基础与应用: 机器学习为数据分析带来了强大的预测和分类能力。本书将涵盖常见的机器学习算法,如聚类(K-Means)、分类(决策树、支持向量机)、回归(随机森林、梯度提升)、降维(PCA)等。重点在于理解算法的原理、适用场景以及如何构建和评估模型,并分享在客户流失预测、欺诈检测、推荐系统等领域的实际应用案例。 数据可视化作为沟通工具: 优秀的数据可视化能够将复杂的数据洞察清晰地传达给非技术人员。本书将介绍数据可视化设计原则,以及如何利用Tableau, Power BI, Matplotlib, Seaborn等工具创建富有表现力和信息量的数据图表,有效地支持业务决策。 因果推断与实验设计: 在许多场景下,我们不仅仅关心相关性,更希望理解事物之间的因果关系。本书将探讨因果推断的基本概念和方法,如A/B测试、倾向性评分匹配等,帮助读者设计合理的实验,从而科学地评估干预措施的效果,做出更具战略性的决策。 第四部分:数据价值的商业落地——驱动业务增长与竞争优势 理论结合实践,本书的最终目标是将数据洞察转化为可衡量的业务成果。这一部分将聚焦于数据价值如何在实际商业场景中得到应用,帮助企业实现增长和获得竞争优势。 客户分析与个性化营销: 理解客户是商业成功的关键。本书将深入探讨如何利用数据进行客户画像构建、客户细分、生命周期价值(CLV)预测、流失预警等。并在此基础上,指导读者如何设计和实施个性化的营销活动,如精准推荐、定制化优惠、内容营销等,从而提升客户满意度和忠诚度。 运营优化与效率提升: 数据分析能够显著提升企业运营效率。本书将探讨如何利用数据优化供应链管理、库存控制、生产调度、服务流程等。例如,通过分析销售数据和客户需求,精准预测产品销量,减少库存积压;通过分析生产设备运行数据,实现预测性维护,降低停机时间。 风险管理与欺诈检测: 数据是识别和规避风险的有力武器。本书将介绍如何利用数据分析技术进行信用风险评估、市场风险预测、操作风险监控等。并重点讲解如何构建欺诈检测模型,识别可疑交易、虚假信息,最大程度地减少企业损失。 产品创新与市场洞察: 数据是产品迭代和创新的源泉。本书将展示如何通过分析用户反馈、市场趋势、竞争对手数据,发现产品改进的空间,识别新的市场机会。例如,通过分析用户对某项功能的反馈,指导产品团队进行优化;通过监测社交媒体上的热门话题,发现潜在的新产品需求。 构建数据驱动的决策支持系统: 最终,数据价值的体现离不开有效的决策支持。本书将讨论如何构建智能化的数据仪表盘(Dashboard)和报表系统,为管理层提供实时、全面的业务洞察,支持他们做出更明智、更及时的战略和战术决策。 衡量数据价值与持续优化: 如何评估数据项目带来的实际效益,并持续优化数据分析能力,是本书关注的另一个重要方面。我们将讨论关键绩效指标(KPI)的设定、ROI(投资回报率)的计算,以及如何建立持续学习和改进的数据文化,确保数据价值能够不断增长。 《洞察数据:信息时代的价值挖掘与商业实践》不仅是一本理论指导书籍,更是一本实践指南。它穿越了数据采集、存储、分析到商业应用的完整链条,力求为读者提供一套系统、可操作的知识体系。无论您是资深的商业领袖,还是初入职场的数据爱好者,抑或是希望提升数据应用能力的业务分析师,都能从中获得宝贵的启示和实用的方法,掌握在信息时代驾驭数据、创造价值的强大能力。本书将帮助您将数据从冰冷的数字转化为驱动业务发展的智慧之光。

用户评价

评分

坦白说,我一开始拿到《干净的数据:数据清洗入门与实践》这本书的时候,并没有抱太高的期待,想着可能就是一本工具书,讲解一下各种函数和命令。但事实证明,我低估了这本书的深度和广度。它不仅仅是罗列了一些数据清洗的技巧,更重要的是构建了一个完整的数据清洗的思维框架。作者非常强调“理解数据”在清洗过程中的核心地位,提醒我们不能盲目地应用各种方法,而是要结合业务场景和数据本身的特点来制定清洗策略。书中有大量的篇幅都在讲解如何去探索性地分析数据,如何通过可视化工具来发现潜在的问题,以及如何评估清洗的效果。我尤其喜欢书中关于数据质量评估的部分,它提供了一些量化的指标和方法,让我们能够客观地衡量清洗的成果,而不是凭感觉。我把书中的一些方法用在我分析用户行为数据时,发现了一些之前从未注意到的数据异常,这些异常的背后可能隐藏着重要的业务洞察。这本书让我深刻体会到,数据清洗不是一个孤立的步骤,而是数据分析流程中不可分割的关键一环。

评分

《干净的数据:数据清洗入门与实践》这本书,给我的感觉就像是打开了一扇通往数据世界的大门,让我看到了一个更清晰、更可靠的数据环境。我之前在处理一些公开数据集时,经常会遇到各种各样的问题,比如格式不统一、字段含义不清、数据量巨大且重复等,这些问题常常让我望而却步,不知道从何下手。而这本书,就像一位经验丰富的老向导,一步一步地指引我如何去应对这些挑战。它从最基础的数据加载和格式转换讲起,到如何识别和处理不一致的数据,再到如何进行数据去重和标准化,每一步都讲解得非常细致。我特别欣赏的是书中对各种数据转换和清洗工具的介绍,不仅有概念性的讲解,还有非常实用的代码示例,很多代码都可以直接拿来用,稍加修改就能满足自己的需求。读这本书的过程,让我对数据的“生命周期”有了更深的理解,也明白了为什么高质量的数据是后续一切分析和建模的基础。

评分

这本书《干净的数据:数据清洗入门与实践》,真的让我对数据处理这件事有了全新的认识。之前,我总觉得数据清洗就是一些零碎的技巧,需要的时候查查资料,然后复制粘贴一些代码。但这本书,让我看到了数据清洗背后更系统、更本质的东西。它不仅仅是告诉你“怎么做”,更重要的是让你理解“为什么这么做”。作者在书中花了很大篇幅去讲解数据清洗的哲学和原则,比如“最小化信息损失”、“避免引入新的偏差”等等,这些理念对于建立一个健康的数据处理习惯至关重要。我尤其喜欢书中关于数据验证和审计的章节,它强调了在清洗过程中保持透明度和可追溯性的重要性,这对于保证数据分析结果的可信度非常有帮助。阅读这本书,我感觉自己不再是一个被数据牵着鼻子走的小白,而是能够主动地去驾驭数据,去创造有价值的数据产品。这本书不仅提升了我的技术能力,更重要的是,它培养了我对数据科学严谨的态度。

评分

这本《干净的数据:数据清洗入门与实践》真是让人惊喜连连!我一直对数据分析和机器学习领域很感兴趣,但总感觉自己缺了一块关键的拼图,那就是扎实的数据处理能力。很多时候,面对一堆杂乱无章的数据,我就会感到力不从心,即使有再好的算法,也抵不过“垃圾进,垃圾出”的现实。而这本书,恰恰填补了这个空白。它没有上来就讲什么高深的理论,而是非常接地气地从最基础的概念讲起,比如什么是脏数据,为什么数据清洗如此重要,以及数据清洗在整个数据分析流程中扮演的角色。作者用了很多贴近实际的例子,比如用户注册信息的缺失、重复,或者商品数据的分类不一致等等,这些都是我们在日常工作中经常会遇到的问题。阅读的过程就像是和一位经验丰富的前辈在交流,他会告诉你“你看,这里有问题,咱们这样处理”,并且每一步都解释得清清楚楚。我尤其喜欢书中对各种常见数据问题的详细剖析,从缺失值、异常值到重复值、不一致值,都给出了清晰的定义和识别方法。让我感觉数据清洗不再是一个神秘而令人畏惧的黑盒子,而是可以被系统性地掌握和解决的工程。

评分

读完《干净的数据:数据清洗入门与实践》,我最大的感受是,原来数据清洗可以这么有意思!我之前一直以为这部分工作是枯燥乏味的,但这本书彻底颠覆了我的看法。作者在书中巧妙地将一些看似枯燥的技术点,通过生动的案例和循序渐进的讲解,变得引人入胜。例如,在讲解如何处理缺失值时,书中不仅介绍了常用的插补方法,还讨论了各种方法的适用场景和潜在的优缺点,甚至会引导读者思考“为什么我们要这样做”,而不是简单地给出一个“标准答案”。我印象特别深刻的是关于异常值检测的部分,书中并没有止步于简单的统计学方法,而是延伸到了一些更智能的算法,比如基于聚类和密度的方法,并且都配上了清晰的图示和代码示例。我尝试着将书中的一些方法应用到我自己的项目中,结果发现数据质量有了质的飞跃,后续的分析也变得更加顺畅和可靠。更重要的是,这本书不仅仅是教你“怎么做”,更重要的是教你“为什么这么做”,培养了读者的独立思考能力和解决实际问题的能力。

评分

但是怀柔校区送货也太太慢了!!!

评分

很好很好很好很好很好很好很好很好很好很好很好很好很好很好

评分

挺好的,以前重来不去评价的,不知道浪费了多少积分,自从知道评论之后京豆可以抵现金了,才知道评论的重要性,京豆的价值,后来我就把这段话复制了,走到哪里,复制到哪里,既能赚京东,还非常省事,特别是不用认真的评论了,又健康快乐又能么么哒,哈哈哈

评分

8节6所DJ郭大路8米孙DJ娑娜

评分

活动时买的还没看,一大批书待看

评分

很好的书!

评分

书非常好,京东的物流赞一个

评分

书的内容很实用,赞一下

评分

基本没有什么有价值的东西

相关图书

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 book.idnshop.cc All Rights Reserved. 静思书屋 版权所有