使用说明: from mypack.util.ictclas import ICTclas ic = ICTclas( text ) ic.finger() #返回text的指纹 ic.words() #返回list:[(word,num),(word,num),...]使用说明: from mypack.util.smallseg.myseg import seg word_nums = seg( text ) #返回list:[(word,num),(word,num),...]使用说明: pr = Parser()

if pr.parse( url ):

print pr.get_html() #返回网页的html格式 print pr.get_text().encode('utf-8') #返回网页中的字符串

if pr.parse( url ):

print pr.get_html() #返回网页的html格式 print pr.get_text().encode('utf-8') #返回网页中的字符串

print pr.get_html() #返回网页的html格式 print pr.get_text().encode('utf-8') #返回网页中的字符串格式如下,book为word在book类的文档频率(int),total为各类的df之和,为word的总df: word|book|edu|finance|house|mil|sport|car|ent|game|lady|mobile|tech|total2. min_df2. 执行db/create.py,创建数据库表 3. 爬取url 4. 执行chi模块:去低频词、卡方值计算、idf值计算 from mypack.classfiy.preprocess.chi import chi_compute chi_compute() 5. 执行卡方特征选择,构建新字典 from mypack.classify.preprocess.voca import read_voca,transform_samples voca = read_voca() transform_samples( voca ) 6. 预测 from mypack.classify.svm.predict import classify_text#对文本进行分类 from mypack.classify.svm.predict import classify_text#对url进行分类如果要自己训练的话,自己下libsvm。liblinear用python不方便调用。from mypack.web_content_extract.extract import Extractor extr = Extractor( url ) if extr.is_content_page(): #判断是否是正文页面

text = extr.get_content() # 提取正文

text = extr.get_content() # 提取正文html = extr.get_content_with_format() #带html标签的正文

images = extr.get_images() # 提取正文中的图片 title = extr.get_title() # 提取正文的标题

confidence = extr.get_confidence() #是正文的置信度

extr.get_detail()#详细分析信息

images = extr.get_images() # 提取正文中的图片 title = extr.get_title() # 提取正文的标题confidence = extr.get_confidence() #是正文的置信度extr.get_detail()#详细分析信息

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。