xml-parsing – 从Wikipedia XML转储中获取静态HTML文件

前端之家收集整理的这篇文章主要介绍了xml-parsing – 从Wikipedia XML转储中获取静态HTML文件前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我希望能够从 WikiMedia dump page下载的巨大的(甚至是压缩的)英文维基百科XML转储文件 enwiki-latest-pages-articles.xml.bz2获取相对最新的静态HTML文件.虽然文档似乎有相当多的工具可用在他们身上相当不足,所以我不知道他们大多数人做了什么,或者他们是否与最新的转储最新. (我非常擅长构建可以抓取相对较小的HTML页面/文件的网页抓取工具,虽然我对sql和XML很糟糕,而且至少在一年之内,我不希望它们非常好.)我希望能够从脱机转储中获取HTML文件,而无需在线访问Wikipedia.

有没有人知道从最近的Wikipedia XML转储中获取静态HTML文件的好工具?

首先,import the data.然后使用 @L_403_3@创建HTML文件.虽然理论上很简单,但由于涉及的数据量和DumpHTML有点被忽略,这个过程在实践中可能很复杂,因此请不要犹豫 ask for help.
原文链接:https://www.f2er.com/xml/292539.html

猜你在找的XML相关文章