维基百科镜像处理

维基百科语料资源丰富,而维基百科又提供数据库下载,是语料资源来源的良好途径。

1. 中文维基数据下载

下载dump:https://dumps.wikimedia.org/zhwiki/latest/,维基数据主要包含以下几部分

zhwiki-latest-pages-articles.xml.bz2           词条正文
zhwiki-latest-redirect.sql  词条重定向(同义词)
zhwiki-latest-pagelinks.sql  词条页面内容外链
zhwiki-latest-page.sql 词条标题及摘要
zhwiki-latest-categorylinks.sql  词条开放分类链接

本文处理的数据是: zhwiki-latest-pages-articles.xml.bz2

2. 中文维基数据解析

下载后需要对该xml文件的压缩包作处理,所幸gensim的WikiCorpus已经预置了部分处理。几行关键的python代码如下:

input_file = “zhwiki-latest-pages-articles.xml.bz2″wiki = WikiCorpus(input_file, lemmatize=False, dictionary={}) for text in wiki.get_texts(): str_line = bytes.join(b’ ‘, text).decode() #以下可以存入文件或数据库

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注