创建自己的python包
目录结构
mypack
├──__init__.py
├──getMax.py
├──getMin.py
setup.py
读取excel中问题,配置默认返回值,数据存储为mongo
Apdater类型:
logic_adapters:机器人应答逻辑
Closest Match Adapter :字符串模糊匹配(编辑距离)
Closest Meaning Adapter :借助nltk的WordNet,近义词评估
Time Logic Adapter :处理涉及时间的提问
Mathematical Evaluation Adapter: 涉及数学运算
磁盘别名
1 | # DEVICE NAME CONVERSIONS |
本机 grub启动 引导
1 | linux (hd0,msdos2)/boot/vmlinuz-linux root=/dev/sda2 |
人脸检测:找出所有的面孔
检测面部特征点: 使用特征点矫正姿态,将侧脸转为正脸
给脸部编码:根据面部特征点计算这个面孔的特征值(特征向量)
编码-计算特征值
从编码中找出人的名字:与已知面孔进行特征值比对,寻找匹配的面孔,得到人名
本文介绍了基于OpenCV 和 Python 、Flask的web人脸检测项目。
人脸识别的最基础任务是「人脸检测」。你必须首先「捕捉」人脸(第 1 阶段)才能在未来与捕捉到的新人脸对比时(第 3 阶段)识别它。
最常见的人脸检测方式是使用「Haar 级联分类器」。使用基于 Haar 特征的级联分类器的目标检测是 Paul Viola 和 Michael Jones 2001 年在论文《Rapid Object Detection using a Boosted Cascade of Simple Features》中提出的一种高效目标检测方法。这种机器学习方法基于大量正面、负面图像训练级联函数,然后用于检测其他图像中的对象。这里,我们将用它进行人脸识别。最初,该算法需要大量正类图像(人脸图像)和负类图像(不带人脸的图像)来训练分类器。然后我们需要从中提取特征。好消息是 OpenCV 具备训练器和检测器。
scrapy
抓取gbk网页搜索的时候直接用汉字作为关键字,搜索显示无结果,原因为scrapy为utf-8使用汉字搜索,汉字转换会urlencode,但是gbk页面搜索识别的是gbk编码的汉字,所以在抓取gbk页面的时候,汉字需要
1 | "关键字".decode("utf-8").encode("gbk") |
用scrapy爬取的数据是无序的,如果要保存有序列的内容,需要根据自增id保存到字典里,然后在spider里使用closed方法进行保存