Python数据科学|第一章:数据科学家的武器库

简介: 本系列教程为《Python数据科学——技术详解与商业实践》的读书笔记。该书以Python为实现工具,以商业实战为导向,从技术、业务、商业实战3个维度来展开学习。
img_7b6f2e219c8bcc30087c1b8a0a21a913.png

本系列教程为《Python数据科学——技术详解与商业实践》的读书笔记。该书以Python为实现工具,以商业实战为导向,从技术、业务、商业实战3个维度来展开学习。本书共19章(Python环境安装和Python基础语法法本系列教程不做讲解),内容较多,旨在学习和记录。但惶恐自身能力有限,未及原书三分,故征得原书作者同意,才敢动笔。

1.1 数据科学的基本概念

数据科学并不是一门学科,它是为了完成商业或工业上的目标,从数据获取知识,为行动提出建议的方法、技术和流程的最佳实践。
本书提供了数据科学工作者的工作范式图,这里将这个工作范式图简单进行描述:数据通过维度分析转换为信息;信息通过建模分析得到知识;知识结合业务目标以此进行决策和行动。
与数据科学相关的知识设计多个学科和领域,包括统计学、数据挖掘、模式识别、机器学习(人工智能)、数据库等。

1.2 数理统计技术

1.2.1 描述性统计分析

新闻报道中的居民收入情况,并不需要把每个人的收入都念一遍,而是取的均值。描述性统计分析就是从总体数据中提取变量的统计量。在日常的业务分析报告中,常使用该方法完成。在实际中,也就是通过Python进行数据统计,完成统计表和统计图的呈现即可。

1.2.2 统计推断与统计建模

统计推断及统计建模,含义是建议解释变量与被解释变量之间可解释的、稳定的,最好是具有因果关系的表达式(下文会详细介绍)。

1.3 数据挖掘技术和方法

数据挖掘的方法分为描述性和预测性。预测性模型从历史数据中找到规律,并用于预测未来;描述性模型用于直观反映历史状况,为后续的分析提供灵感。
例如:判断客户是否违约,可通过客户的性别、年龄、收入、历史信用状况等因素进行预测。这里就是预测性模型。
通过客户标签对用户细分,以便针对不同客户做不同运营;根据客户的产品购买,发现产品间的相关性,用于捆绑营销。这些就是属于描述性模型。

1.3.1 描述性数据挖掘算法
  • 聚类分析
  • 关联规则分析
1.3.2 预测性数据挖掘算法
  • 决策树
  • KNN算法
  • Logistic回归
  • 神经网络
  • 支持向量机
  • 集成算法
    具体的算法在后文中一一讲解。

总结

第一章主要是起到总的作用,首先介绍了数据科学的概念和流程。接下来针对问题的难易,将数据科学需要用到的技术划分为:数理统计技术和数据挖掘技术。这些技术也就是数据科学家的武器库。

相关文章
|
1天前
|
数据可视化 数据挖掘 API
使用Python进行数据可视化:探索Matplotlib和Seaborn库
【9月更文挑战第19天】在数据科学领域,将复杂的数据集转换成直观、易懂的图形是一项基本而关键的技能。本文旨在通过Python编程语言介绍两个强大的数据可视化库——Matplotlib和Seaborn,以及它们如何帮助数据分析师和研究人员揭示数据背后的故事。我们将从基础概念讲起,逐步深入到高级技巧,确保无论读者的背景如何,都能获得必要的知识和启发,以在自己的项目中实现有效的数据可视化。
|
1天前
|
机器学习/深度学习 JSON API
HTTP协议实战演练场:Python requests库助你成为网络数据抓取大师
在数据驱动的时代,网络数据抓取对于数据分析、机器学习等至关重要。HTTP协议作为互联网通信的基石,其重要性不言而喻。Python的`requests`库凭借简洁的API和强大的功能,成为网络数据抓取的利器。本文将通过实战演练展示如何使用`requests`库进行数据抓取,包括发送GET/POST请求、处理JSON响应及添加自定义请求头等。首先,请确保已安装`requests`库,可通过`pip install requests`进行安装。接下来,我们将逐一介绍如何利用`requests`库探索网络世界,助你成为数据抓取大师。在实践过程中,务必遵守相关法律法规和网站使用条款,做到技术与道德并重。
7 2
|
4天前
|
SQL 前端开发 数据可视化
Rodeo支持多种Python库
Rodeo支持多种Python库
16 5
|
3天前
|
数据采集 存储 JSON
从零到一构建网络爬虫帝国:HTTP协议+Python requests库深度解析
在网络数据的海洋中,网络爬虫遵循HTTP协议,穿梭于互联网各处,收集宝贵信息。本文将从零开始,使用Python的requests库,深入解析HTTP协议,助你构建自己的网络爬虫帝国。首先介绍HTTP协议基础,包括请求与响应结构;然后详细介绍requests库的安装与使用,演示如何发送GET和POST请求并处理响应;最后概述爬虫构建流程及挑战,帮助你逐步掌握核心技术,畅游数据海洋。
18 3
|
8天前
|
数据采集 网络协议 API
HTTP协议大揭秘!Python requests库实战,让网络请求变得简单高效
【9月更文挑战第13天】在数字化时代,互联网成为信息传输的核心平台,HTTP协议作为基石,定义了客户端与服务器间的数据传输规则。直接处理HTTP请求复杂繁琐,但Python的`requests`库提供了一个简洁强大的接口,简化了这一过程。HTTP协议采用请求与响应模式,无状态且结构化设计,使其能灵活处理各种数据交换。
37 8
|
8天前
|
数据采集 机器学习/深度学习 数据可视化
Python 在数据科学中的应用
这篇文章将深入探讨 Python 在数据科学中的多种应用,包括数据清洗、数据分析、可视化及机器学习。我们将通过实例展示如何利用 Python 的强大库和工具,如 Pandas、NumPy、Matplotlib、Seaborn 以及 Scikit-learn,来高效地进行数据处理与分析。无论您是初学者还是有经验的开发者,这篇文章都能为您提供宝贵的见解和实用技巧。
|
12天前
|
JSON API 开发者
Python网络编程新纪元:urllib与requests库,让你的HTTP请求无所不能
【9月更文挑战第9天】随着互联网的发展,网络编程成为现代软件开发的关键部分。Python凭借简洁、易读及强大的特性,在该领域展现出独特魅力。本文介绍了Python标准库中的`urllib`和第三方库`requests`在处理HTTP请求方面的优势。`urllib`虽API底层但功能全面,适用于深入控制HTTP请求;而`requests`则以简洁的API和人性化设计著称,使HTTP请求变得简单高效。两者互补共存,共同推动Python网络编程进入全新纪元,无论初学者还是资深开发者都能从中受益。
31 7
|
19天前
|
机器学习/深度学习 PyTorch 算法框架/工具
python这些库和框架哪个更好
【9月更文挑战第2天】python这些库和框架哪个更好
32 6
|
19天前
|
机器学习/深度学习 数据采集 算法框架/工具
python有哪些常用的库和框架
【9月更文挑战第2天】python有哪些常用的库和框架
21 6
|
22天前
|
数据采集 XML Web App开发
6个强大且流行的Python爬虫库,强烈推荐!
6个强大且流行的Python爬虫库,强烈推荐!