数学专业。擅数据分析,涉stock、lotto。了解随机过程分析、神经网络。涉web前端、后端。了解vba、js,稍擅python
灵光一闪,得到这一句: all(map(lambda x:x==-1, series[-i:-mid] * series[-mid:])) # 对折,相乘,全是-1 爽到死! 完整代码如下: import numpy as np import matplotlib.
flask, SQLAlchemy, sqlite3 实现 RESTful API, 同时支持form操作。 前端与后台的交互都采用json数据格式,原生javascript实现的ajax。其技术要点如下 1.
本实验所用代码来源于官网文档 from sqlalchemy import Table, Column, Integer, String, ForeignKey from sqlalchemy.orm import relationship, backref from sqlalchemy.
我们知道,,是一个典型的多对多关系。 现分别用 SQLAlchemy 与 fask-SQLAlchemy 实现。 声明:本人实测通过。 使用 SQLAlchemy from sqlalchemy import Table, Column, Integer, String, ForeignKey from sqlalchemy.orm import relationship, backref from sqlalchemy.ext.declarative import declarative_base Base = declarative_base() # 下表是用于关系的辅助表。
方式一:raw_sql import sqlite3 from flask import Flask, request, jsonify app = Flask(__name__) DATABASE_URI = ":memory:" # 创建表格、插入数据 @app.
作者:hhh5460 官网有一个flaskr的例子,按照其8个步骤(包括测试),一步一步照着做,有3个地方报错。 究其原因,可能是flaskr这个例子年代比较久远,而现在python以及flask都有了很大的变动。
作者:hhh5460 大抵分成两类 一、离散的、标签化的数据 原文没有使用pandas,我使用pandas重新实现了朴素贝叶斯算法,看起来非常简洁、清爽。 import pandas as pd ''' 导入数据集 {a1 = 0, a2 = 0, C = 0} {a1 = 0, a2 = 0, ...
import numpy as np import matplotlib.pyplot as plt # ========================================== # 圆的基本信息 # 1.
时时彩 另外还有福彩3d,香港彩票。 都打算做成库,发布到pypi 应该会是最近的事。 还有网页版的也会放出:
作者:hhh5460 概要 (略) 一、问题 为了将问题简化,不妨假设,某种数字彩票只有0~9十个数字,每次开出其中的一个数字(如6),作为中奖号码。 下面是某段时期内开出的号码: 期数 号码 20160922 3 20160923 8 20160924 6 20160925 1 20160926 1 20160927 9 20160928 0 20160929 4 20160930 3 20161001 ? 我们的目的是:根据历史数据,希望能分析出20161001期所开的号码(范围?)。
''' 基于物品的协同推荐 矩阵数据 说明: 1.修正的余弦相似度是一种基于模型的协同过滤算法。我们前面提过,这种算法的优势之 一是扩展性好,对于大数据量而言,运算速度快、占用内存少。 2.用户的评价标准是不同的,比如喜欢一个歌手时有些人会打4分,有些打5分;不喜欢时 有人会打3分,有些则会只给1分。
''' 基于物品的协同推荐 矩阵数据 说明: 1.修正的余弦相似度是一种基于模型的协同过滤算法。我们前面提过,这种算法的优势之 一是扩展性好,对于大数据量而言,运算速度快、占用内存少。 2.用户的评价标准是不同的,比如喜欢一个歌手时有些人会打4分,有些打5分;不喜欢时 有人会打3分,有些则会只给1分。
''' 基于用户的协同推荐 条目数据 ''' import pandas as pd from io import StringIO import json #数据类型一:条目(用户、商品、打分)(避免巨型稀疏矩阵) csv_txt = '''"Angelica","Blues Traveler",3.
原书作者使用字典dict实现推荐算法,并且惊叹于18行代码实现了向量的余弦夹角公式。 我用pandas实现相同的公式只要3行。 特别说明:本篇笔记是针对矩阵数据,下篇笔记是针对条目数据。 ''' 基于用户的协同推荐 矩阵数据 ''' import pandas as pd from io imp...
设计推荐算法时,首先要考虑数据格式。 由于数据是关于用户对商品的评分,其具有三个要素:用户、商品、评分 所以,数据格式有三种形式: 1. json格式(json文本) #数据格式:json数据(用户、商品、打分) json_txt = '''{"Angelica": {"Blues Traveler": 3.
说明:最近在读《Data Minning Guide》这本书。接下来的几篇是读书笔记。 本书的第一章针对下面这个问题展开:如何预测用户对给定物品的打分? 作者从下面几个方面作了回答: 一、基于用户协同 --方法--1:用户之间的距离/相似度(K近邻算法) 二、基于物品协同 --方法1--:物品之间的相似度(修正的余弦相似度) --方法2--:物品之间的差异值(加权Slope One算法) 由于使用的是用户产生的各种数据,因此又称为社会化过滤算法。
总的而言,分三部分: 1.监控器(monitor.py): 每秒获取系统的四个cpu的使用率,存入数据库。 2.路由器(app.py): 响应页面的ajax,获取最新的一条或多条数据。 3.页面(index.html): 发出ajax请求,更新echarts图表 一、监控器 使用了psutil库,对系统进行监控。
结构: /www | |-- /static |....|-- jquery-3.1.1.js |....|-- echarts.js(echarts3是单文件!!) | |-- /templates |.
结构: /www | |-- /static |....|-- jquery-3.1.1.js |....|-- echarts.js(echarts3是单文件!!) | |-- /templates |.
结构: /www | |-- /static | | | |-- echarts.js(当然还有echarts原dist目录下的文件(夹)) | |-- /templates | | | |-- index.
class Graph(object): def __init__(self,*args,**kwargs): self.node_neighbors = {} self.
class Node(object): def __init__(self, data=None, left=None, right=None): self.data = data self.
tkinter class继承有三种方式。 提醒注意这几种继承的运行方式 一、继承 object 1.铺tk.Frame给parent: 说明: self.rootframe = tk.Frame(parent) tk.
第一个例子:after 用于定时操作 import tkinter as tk import time class MyApp(tk.Frame): def __init__(self, msecs=1000): super().
一、需求分析 需求:一个类 MyClass,有两个功能:add, sub 1.先功能设计 # myclass.py class MyClass(object): # 加法 def add(self): pass # 减法 def sub(self): pass 2.
未使用其他库, 只是使用 pywin32 调用系统底层 API 播放 wav 文件。 # Our raison d'etre - playing sounds import pywintypes import struct import win32event import win32com.
原文 这篇文章主要介绍了使用Python脚本操作MongoDB的教程,MongoDB作为非关系型数据库得到了很大的宣传力度,而市面上的教程一般都是讲解JavaScript的脚本操作,本文则是基于Python,需要的朋友可以参考下 0.
原文地址 从八月底开始找工作,短短的一星期多一些,面试了9家公司,拿到5份Offer,可能是因为我所面试的公司都是些创业性的公司吧,不过还是感触良多,因为学习Python的时间还很短,没想到还算比较容易的找到了工作,就把这些天的面试经验和大家分享一下,希望为学习Python找工作的小伙伴们提供些许帮助。
scrapy 爬取到结果后,将结果保存到 sqlite3,有两种方式 item Pipeline Feed Exporter 方式一 使用 item Pipeline 有三个步骤 文件 pipelines.py 中,编写 Sqlite3Pipeline 类 文件 settings.py 中,添加 ITEM_PIPELINES 开始运行爬虫: scrapy crawl example 1. 文件 pipelines.py 说明: 参考了官网文档的 MongoDB 的例子 要求: 表格 SQLITE_TABLE 要在爬虫运行之前先创建好。
useragentstring.com 网站几乎廊括了所有的User-Agent,刚学了scrapy,打算那它练手,把上面的 user-agent 爬取下来。 本文只爬取常见的 FireFox, Chrome, Opera, Safri, Internet Explorer 一、创建爬虫项目 1.
headers = [ {"User-Agent": "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .
说明: 本文参考了官网文档,以及stackoverflow的几个问题 注意: 下面这个爬虫不能实际运行!我只是用它来展示登录,以及之后如何处理。 方式一:FormRequest import scrapy from myprojct.
说明: 本文参照了官网文档,以及stackoverflow的几个问题 概要: 在scrapy中使用代理,有两种使用方式 使用中间件 直接设置Request类的meta参数 方式一:使用中间件 要进行下面两步操作 在文件 settings.
说明: 本文参照了官网的 dmoz 爬虫例子。 不过这个例子有些年头了,而 dmoz.org 的网页结构已经不同以前。所以我对xpath也相应地进行了修改。 概要: 本文提出了scrapy 的三个入门应用场景 爬取单页 根据目录页面,爬取所有指向的页面 爬取第一页,然后根据第一页的连接,再爬取下一页...。
网页结构: Example website Name: My image 1 Name: My image 2 Name: My image 3 Name: My image 4 Name: My image 5 连接: scrapy shell http://doc.
import numpy as np import pandas as pd df = pd.DataFrame(np.random.randint(0,100,100), columns=['score']) # 以所在区间作为标签。
问题: 有一个DataFrame,列名为:['$a', '$b', '$c', '$d', '$e'] 现需要改为:['a', 'b', 'c', 'd', 'e'] 有何办法? import pandas as pd df = pd.
说明 之前在 window 10 (64) + python 3.5 (64) 环境下就已经成功安装了 scrapy,当然也费了不少周折。 由于近日将系统换回 windows 7 (64),再安装 scrapy 时又遇到了一些问题,不过折腾了十来分钟后,还是成功了。
说明:此文的第一部分参考了这里 用python进行线性回归分析非常方便,有现成的库可以使用比如:numpy.linalog.lstsq例子、scipy.stats.linregress例子、pandas.ols例子等。
找到一个递归神经网络的例子,没看懂。 先保存,慢慢看。 原文 # Recurrent Neural Networks import copy, numpy as np np.random.seed(0) # compute sigmoid nonlinearity def sigmoid(x): output = 1/(1+np.
问题描述 用python写爬虫,很多时候我们会先在cmd下先进行尝试。 运行爬虫之后,肯定的,我们想看看爬取的结果。 于是,我们print... 运气好的话,一切顺利。但这样的次数不多,更多地,我们会遇到这样的错误: UnicodeEncodeError: 'gbk' codec can't encode character 好吧,回去检查网页的编码格式:gb2312 代码中也添加了:r.
Mini-project description - Rock-paper-scissors-lizard-Spock Rock-paper-scissors is a hand game that is played by two people.
How to check out codeskulptor's host? Use tool: namecheckup Append to your hosts file, path: windows\system32\drivers\etc 74.
#Practice Exercises for Logic and Conditionals # Solve each of the practice exercises below. # 1.Write a Python function is_even that takes as input...
# Practice Exercises for Functions # Solve each of the practice exercises below. # 1.Write a Python function miles_to_feet that takes a parameter ...
1、配置文件 如果使用mysql的默认配置,在使用的过程中会出现很多问题,如汉字是乱码等。 在mysql的根目录(如:D:\mysql\mysql-5.7.14-winx64)下,新建配置文件my.ini(utf-8编码): [mysql] # 设置mysql客户端默认字符集 default-cha...
不使用 pythonic 的循环: l = [1,2,3] #Bad for i in range(0,len(list)): le = l[i] print(i,le) #Good for i,le in enumerate(l): print(i,le) 函数调用返回...
from selenium import webdriver import csv def get_pages_numger(browser): res = browser.find_elements_by_xpath('//div[@class="page-component"]/a[7]') return int(res.
import csv # ============================== # list to csv # ============================== a = [1,2,3,4,5,6] b = list(range(1,70,10)) c = list('ABCDEF') d = sorted(zip(a, b, c)) with open('some.