网页库级垂直搜索引擎技术

网页库级垂直搜索引擎技术
(一)    垂直搜索引擎的选型
本文原创,没有版权,可以任意转载,但是请别转载了一下就变成你写的了哦 ^_^
网页搜索引擎的存在有他存在的土壤,土壤环境是怎么样的呢?
1.海量的数据,互联网上有海量的数据,并且这些数据在快速增长、不断更新
2.分散的数据,这些数据存在于成千上万个网站中
3.多样化的数据
4.用户多样化的数据搜索需求
5.用户对搜索数据的实时性要求不是非常强
6.用户对这些数据有整合使用的需求,并且这种需求量很大
7.能够很好的对整合来的数据进行处理,能够完整的满足用户的这种需求,提供完整的信息检索体验
垂直搜索引擎存在的土壤:
1.网页搜索引擎无法对某类数据进行深度加工,提供更多的细化的服务
2.网页的数据实在是太多样化了(数据种类、数据类型等),不利于满足用户细分的服务
3.用户有对互联网数据进行深度采集,数据的深度加工提供更细化的服务的需求,这种需求量非常巨大
4.用户对某类信息的实时性的要求比较高
5.针对某类信息提供更简洁、更快速,更可依赖性更强的服务
6.行业性优化
垂直搜索存在的必备条件:
1.海量的数据,所选择的垂直搜索的数据必须是海量的数据,数据量和增长速度、增长量都比较大。符合搜索引擎的基本条件
2.分散的数据,这种数据必须要分散在很多个不同网站。不能是仅存在于几个网站。如果仅存在于几个网站不如做元搜索了(如果信息集中在几个网站,用户可以直接去使用)
3.用户对这些数据的实时性有一定要求,但是又不能是对实时性要求极高
(显然,春运期间的二手火车票信息就不适合做垂直搜索,因为等采集处理完毕,那票说不定已经卖掉了。拍卖的价格信息不适合做垂直搜索,有可能还没有采集处理完毕,价格已经变化了。)
4.用户对这类数据的需求量是很大的,而且需要长期使用。(搜索是需要学习、长期使用才能很好的驾驭的一种应用)
5.技术上能够很好的完成信息的整合、深度加工,并且加工后能够完整的满足用户对这类数据的搜索需求,提供完整的应用体验。
6.这种信息的深度采集、深度加工是网页搜索引擎完全不可以替代的。无水厕所
垂直搜索选型的步骤:
1.选定适合您的,您熟悉的,有一定的资源背景的几个垂直搜索的被选方案。
2.查看google或百度(其它搜索引擎不行)检索关键词数据。
最好能搞到连续一段时间的全部词汇(按照检索频率排序),当然这几乎不可能,进行详细的分析、统计、挖掘。搞不到只要看风云榜和百度指数了,这估计就有很大偏差了。
对这些用户需求数据库进行深度分析出用户到底要什么、互联网上缺什么。(第1步和第2步交替进行)
3.分析相关行业的网站,评估用户需求、数据情况、横向竞争、纵向竞争、潜在竞争情况和可能遇到的其它问题。
4.如何满足用户的需求?如何保持产品和门户网站、搜索门户等的差异化和挖掘出用户潜在的最大的需求?
5.评估技术上的可行性,能否实现完整用户体验
6.如何保证产品的领先性(资源、效果、市场、技术、销售……)
7.产品的市场推广方式(这点非常非常重要,如何在竞争对手反应过来之前低成本的快速抵达有效用户是成败的关键)
8.盈利模式;收入模型、成本模型
第一步完成到什么程度,达到什么目标。需要多少成本
第二步完成到什么程度,是否可以收支平衡或者获得投资
…………
9.产品的不足和先天的缺陷如何克服弥补。产品的生命周期的每一步可能出现的紧急问题如何应对。
10.不要认为自己很聪明,这世界上聪明人太多了,你能想到的肯定有n个人已经想到了。
  关键在于您能不能充分利用自己的资源,做好前期的调查后专注的执行。
11.务必要百度和google这类搜索引擎不愿意花大功夫去做(市场暂时不够大)、或者不可能能做的应用(受制约、有更重要的事情要做),不要把你的模式和意图暴露得太早,这个市场的竞争实在是太激烈了,中国人也都太聪明了。
  务必要和门户网站、网页搜索引擎有很大差异化,并且用户有持续的很大的需求的。理由很简单:搜索是需要持续使用才能熟练的一种产品、从门户和网页搜索引擎到您的垂直引擎的门槛很高(比多点击10次的门槛还高很多)。
cd4013应用电路
网页库级垂直搜索引擎技术(二)如何做好一个垂直搜索引擎
本文先引用几句话:
1.“确解用户之意,切返用户之需。”
2.“门户网站都想着是怎样省钱,而不是怎样花钱来买技术。”
3.“搜索引擎不是人人都能做的领域,进入的门槛比较高。”
4.“只是优秀还不够,最好的方式是将一件事情做到极致。”(google十大真理
5.“做搜索引擎需要专注” “对于一项排到第四的业务,门户很难做到专注。”
6.“用户无法描述道他要什么,除非让他看到想的东西。”
7. “所谓楔形,其实就是个倒三角,倒三角的尖端部分代表搜索技术,中部是基于技术的产品应用平台,最上端是对整个搜索引擎用户人文化的认识和理解,以及现代公司竞争最关键也最捉摸不定的所谓品牌。” “楔形”蕴涵的另一个意义是:楔子要打到墙里,尖端是否锐利很重要,但楔子的破坏性有多强,究竟能在墙面挤压出多大的空间,其中端、后端的沉稳与厚重才是关键。
搜索引擎的技术和理念都是需要时间和经验的积累的,更是需要长期不断的完善进步的,绝对不要认为可以一蹴而就,要达到一个相对成熟领先的搜索引擎从开始到领先的周期一般需要是四年。着急不得。原因是因为搜索引擎太复杂,而且“用户无法描述他要什么,除非让他看到想的东西。” 一切都需要摸索,尝试,问题需要一个一个解决,用户的需要得一点点的挖掘。
搜索引擎是一个产品,给用户提供服务的产品,需要长期的不断的改进升级调整才能持续不断的提用户体验,需要满足用户不断增长并且变化的需求、需要不断适应网络的变化。这是因为网络环境是不断变化的、网民的需求也是不断变化的。千万不要把搜索当成项目来做,做完了撂那让用户去用那你肯定没戏。在搜索引擎领域是讲体验的、新的引擎如果用户体验一旦整体上有领先一年以上的差距并且持续2年,那前期的领先者的优势就荡然无存,因为搜索引擎的用户转移成本相对而言是比较低的而且口碑是最佳的传播方式。如果一个搜索引擎不能持续不断的技术创新理念创新,那对于这个搜索引擎来说就等于死亡。我们一般形容搜索引擎的领先是以时间计算的。比如:中搜离百度整体差距×年,百度离google的整体差距×年,……只要你能在用户体验上保持一年的领先优势持续2年,不需要炒作,一切纷至沓来。在用户体验面前,任何的炒作都显得很渺小。
垂直搜索引擎,麻雀虽小,但是五脏俱全。无论理念文化、产品管理、应用、技术都和搜索引擎的楔形理论没有什么区别。所以要做好一垂直搜索必须解决这几个方面。
楔形的尖:垂直搜索技术
垂直搜索技术主要分为两个层次:模板级和网页库级。模板级是针对网页进行模板设定或者自动生成模板的方式抽取数据,对网页的采集也是针对性的采集,适合规模比较小、信息源少且稳定的需求,优点是快速实施、成本低、灵活性强,缺点是后期维护成本高,信息源和信息量小。网页库级就是在信息源数量上、数据容量上检索容量上、稳定性可靠性上都是网页库搜索引擎级别的要求,和模板方式最大的区别是对具体网页不依赖,可针对任意正常的网页进信息采集信息抽取……。这就导致这种方式数据容量上和模板方式有质的区别,但是其灵活性差、成本高。当然模板方式和网页库级的方式不是对立的,这两者对于垂直搜索引擎来说是相互补充的,因为技术只是手段,目的是切反用户之需。本文谈及的技术主要是指网页库级别垂直搜索引擎技术
搜索引擎的确是一项对技术要求比较高的应用,几年前相关的人才也比较少。现在搜索技术人才多了,相关的技术和技术的应用得相对以前而言更加成熟,但是竞争也更加激烈了。垂直搜索大致需要以下技术:
1. 信息采集技术
2. 网页信息抽取技术
3. 信息的处理技术,包括:重复识别、重复识别、聚类、比较、分析、语料分析等
4. 语意相关性分析
5. 分词
6. 索引
信息采集技术,垂直搜索引擎spider和网页库的spider相比应该是更加专业,可定制化。可定向性的采集和垂直搜索范围相关的网页忽略不相关的网页和不必要的网页,选择内容相关的以及适合做进一步处理的网页深度优先采集、对页面有选择的调整更新频率……,采集可通过人工设定网址和网页分析url方式共同进行。垂直搜索对信息的更新有着特别的要求,根据这些特点可以从以下几点考虑1.信息源的稳定性(不能让信息源网站感觉到spider的压力)2.抓取的成本问题3.对用户体验改善程度。根据以上几点制定一种比较好的策略,要做到恰到好处。策略上可以评估网站/网页更新的系数、网站/网页的重要系数、用户点击系数(或曝光系数)、网站稳定系数……,根据这些系数来确定对这些网站/网页更新的频率。再由于新信息和更新了的信息list页面前面或者首页,所以对网页进行很好的分级可以以低成本很好的解决更新问题,系数比较低的网页一月update一次,稍微高点的一周update一次、中等的几天到一天一次、高的几小时到几分钟一次。类似搜索引擎的大库、周库、日库,小时库……
基于视觉网页块分析技术,模拟IE浏览器的显示方式,对网页进行解析。根据人类视觉原理,把网页解析处理的结果,进行分块,再根据需要,对这些块进行处理,如:采集定向、介绍抽取和一些必要的内容的抽取正文抽取……
结构化信息抽取技术,将网页中的非结构化数据按照一定的需求抽取成结构化数据。有两种方式,简单的就是模板方式,另外就是对网页不依赖web结构化信息抽取方式,这两种方式可以互取长处,以最简单最有效的办法满足需求。垂直搜索引擎和通用搜索引擎最大的区别就是对网页信息结构化抽取后再结构化数据进行深度的处理,提供专业的搜索服务。所以web结构化信息抽取的技术水平是决定垂直搜索引擎质量的重要技术指标。其实web结构化信息抽取在百度、google早已经广泛应用了,如:MP3、图片搜索、google的本地搜索就是从网页库抽取出企业信息,添加到其地图搜索中的,google通过这种技术正在颠覆做内容的方式。同样的技术应用还在qihoo、sogou购物、shopping等各种应用中体现。
简单的语法分析,简单的语法分析在搜索引擎中非常重要,可以通过简单的语法分析来改善数据的质量,低成本的获得某类信息,改善排序,寻需要的内容……
信息处理技术,信息处理包括的范围比较广,主要包括去重、聚类、分析……,这根据需要相关的技术就非常多。
数据挖掘,出您的信息的关联性对于垂直搜索来说非常重要,有效,可以在这些相关性上为用户提供更细致的服务。
分词技术,面向搜索的分词技术,建立和您的行业相关的词库。注意这是面向搜索的分词,不是面向识别和准确的分词。就这个工作安排十几个人不停的维护也不会嫌多。
索引技术,索引技术对于垂直搜索非常关键,一个网页库级的搜索引擎必须要支持分布索引、分层建库、分布检索、灵活的更新、灵活的权值调整、灵活的索引和灵活的升级扩展、高可靠性稳定性冗余性。还需要支持各种技术的扩展,如偏移量计算等。
其它技术,略。
垂直搜索引擎的技术评估应从以下几点来判断
1. 全面性
2. 更新性
3. 准确性
4. 功能性
锲形的中和尾:产品应用平台和对搜索引擎文化理念的理解
对于任何一个产品来说,产品的模式是最重要的,技术只是手段、工具、途径。用户不会关心你的技术是如何实现的、更不会关心你的技术水平是什么样的,只要用户感觉:这就是我需要的东西,很好用,而且是最好用的。那么你的产品就OK了。
考虑一个产品的模式需要考虑的东西很多,如:用户需要什么?需求有多大?能不能完整的实现用户的需求?需要什么资源?怎么做到?竞争分析?差异化?根据自身情况能做到什么程度?怎么样保持领先优势?能否收到钱?怎么样收钱?怎么样推广?需要多少时间?如何保证在时间窗口期内有效完成进度?如何分步分期优先完成用户最需要的需求?如何建立有效的反馈机制让我可以了解用户的需求变化和挖掘用户自己也无法表达的需求?如何进一步改善?分期需要多大的投入?如何降低整体成本和前期成本?如何分期投入?投资回报比?周期?……
1. 确解用户之意
任何应用最难的就是了解用户的需求,甚至是用户自己都不知道的需求。
建立完善的、快速的用户意见反馈机制和用户需求调查机制,所有人都应倾听用户的牢骚、建议。不断的分析、修改。
2. 切返用户之需
满足用户的需求,一切纷至沓来。不需要炒作,请把您的资源多多花费在为用户提供良好的体验上来。
3. 不要干扰用户的意图,培养用户的使用习惯和技巧
有一个故事是这样的:还在yahoo使用google的搜索的时候,华尔街的几个分析师来评估这两个搜索哪个好用,去掉logo。结果一致评价yahoo的检索效果好。因为yahoo是使用的google检索结果,并且对热点关键词进行了人工调整。但是一转身这些分析师回到自己的电脑边查询东西,不约而同的打开了google。
4. 细节决定成败
信息不是越多越好,在海量的信息时代,如果不能妥善的整理信息,那就等于没有信息。每个页面的每个字,每个像素、图片的放置都值得花费时间去琢磨。把用户最需要的放在最显眼的位置,次需要的放置到更多页面,不需要的扔掉。
5. 将一件事情做到极致
不仅仅要关注80%的用户的80%的需求,20%的用户的20%的需求是您成败关键所在。
6. 专注
这么多需要你解决的问题,你还能干其它事情?对于一个排在第四的业务你是没有机会的。所以垂直搜索引擎的成功肯定不是具备良好资源的行业门户、也不会是大搜索的公司,必然是专注于某一行业的搜索引擎公司。因为只有专注,才能将一件事情做到极致。
7. 创新
失败不要紧,但是如果搜索引擎公司没有创新,那这个搜索引擎公司必然面向的就是死亡。
8. 需要完全掌握主要技术。
一个核心业务不可能通过外包手段来解决技术问题。虽然个大公司外包技术看起来很美丽,很快速,甚至成本比较低。但是这是在毁灭你的将来。因为这是产品,不是项目。产品是需要不断完善调整的,用户的需求也是变化的需要挖掘的,互联网也是变化的,你外包技术绝对不可能做到灵活、及时满足各种变化。在和竞争对手竞争的时候您如何保持您的领先优势?(前文说了,如果被对手保持领先一段时间,那么你之前的领先优势就荡然无存)。这里还没有考虑竞争问题,购买其它搜索引擎公司的技术,对方会不会把真正的技术毫不保留的卖给你。再说,卖你你你能搞懂吗?技术再困难也要自行解决。否则你注定失败。最好的办法就是购买核心技术缩短研发周期、成本、风险,再在这个核心技术进行自主研发。
这是垂直搜索的技术门槛,看似不高,其实很高。
对于技术问题可以迂回解决,用最简单的技术满足用户最迫切的需求。用户是不会关心技术实现的。天然气裂解制氢
模板方式可以是网页结构化信息抽取技术的补充。对于可行的应用早期采用模板技术也是不错的选择。比如chinabbs就做的很好,用户的主要需求是要浏览到好的帖子,所以加强内容的建设,高水平的编辑做推荐,而且在界面和易用性上也很不错。领先qihoo。技术方面他们初期采用的应该是模板自动生成方式采集论坛信息,比qihoo技术水平差,但是这目前不是用户需求的关键,而且qihoo技术水平层次虽然高但是如果不成熟,体现给用户的东西未必就强。Chinabbs接下来再解决技术难点,在技术上有提升,那么他就能持续保持领先优势了。(但是话又说回来,招聘好的编辑很容易,技术要提升一个层次并且成熟很难,而且很耗费时间,当然用户习惯和知名度也是需要很长时间培养的)
9. 用最简单的技术实现用户最迫切的需要
技术重要,但是技术的使用得当更重要,技术是为用户体验服务的。只要能满足用户需要,什么技术都可以,简单不代表不行,用最简单的技术实现用户最迫切的需要。百度的整体技术我认为离google中文至少有1年以上差距,很多方面差距更大,但是百度的效果比google好,原因就是将简单的技术用于实现用户迫切的需求。
举个我身边的例子来描述简单的技术实现需求:我把我们的基于视觉的网页块分析的正文抽取技术演示给一好友看,好友看后说:我们也实现了。我大惊,他们不是做搜索的,居然也实现了! 他告诉我他们实现的方法后,我再次吃惊,深感简单的技术也可以很好的解决问题,虽然不完全解决,但是能满足自己的需求就好。他们的解决方法是:对网页的html进行分析,将整段文字中没有html代码的文字提取出来,这就是正文。(惊叹!!如此简单!!注:他们的信息源都是这样的格式)
10. 根据中国本土互联网特点,强力的antispam,对信息进行清洗。
11. 很多人误解垂直搜索就是把相关的行业网页做一个采集,进行正文抽取,实现搜索,完成信息册查询。其实并非如此。如果这样无法和网页搜索竞争,网页搜索很容易就可以将网页库按行业分类、按地区分类。
    垂直搜索应该是对垂直行业信息进行深度的加工,有效的整合,为用户提供网页搜索无法做到的专业性、功能性,为用户提供深一步的服务和完整的体验,而且不仅仅是提供信息的检索。垂直搜索是和信息搜索有本质的差异化的。
12.专注用户体验的改善,任何的宣传炒作都是空乏无意义的,搜索引擎的核心在于用户体验,你只要改善用户体验,比别人强一点点,那么其它人的炒作和宣传都在为你打工
  

网页库级垂直搜索引擎技术(三)一堆信息抽取的资料文档
“一堆”,就是没有整理,是堆放的。不是自己写的,是来的。
我会在这里继续添加的,依然是“堆”。有兴趣的可以看看,没有兴趣的就别碰了。有谁有什么好文,拿出来大家共分享。
1.网上信息抽取技术纵览(下载) 
Line Eikvil 原著 (1999.7) 陈鸿标 译 (2003.3)
信息抽取(Information Extraction: IE)是把文本里包含的信息进行结构化处理,变成表格一样的组织形式。输入信息抽取系统的是原始文本,输出的是固定格式的信息点。信息点从各种各样的文档中被抽取出来,然后以统一的形式集成在一起。这就是信息抽取的主要任务………
第一章导论
第二章简要介绍信息抽取技术
第三章介绍网页分装器(wrapper)的开发
第四章介绍已经开发出来的网站信息抽取系统
第五章介绍信息抽取技术的应用范围以及首批已经进入商业运作的商用系统
2.Language Independent Named Entity Recognition Combining Morphological and Contextual Evidence
 Silviu Cucerzan ,David Yarowsky
 一种独立于语言的命名实体识别方法。
3.信息抽取研究综述  
  王建会对自动摘要算法改进方面所做的研究工作
4.信息抽取综述
  这是介绍信息抽取(Information Extraction)的一篇报告,包括MUC、Web抽取(Web Extraction)等。
5.FASTUS: A Cascaded Finite-State Transducer for Extracting Information from Natural-Language Text
  本文介绍了FASTUS系统,这是一个从自然语言文本中进行信息抽取的系统, 抽取来的信息输入数据库或者用作其它用途。
6.MUC-7 Information Extraction Task Definition
  MUC-7信息抽取任务的定义
7.OVERVIEW OF MUC-7/MET-2
 本文简要介绍了MUL-7/MET-2的任务
8.Information Extraction: Techniques and Challenges
本文介绍了IE(Information Extration)技术(18页)。
9.信息抽取研究综述李保利,陈玉忠,俞士汶
摘要:信息抽取研究旨在为人们提供更有力的信息获取工具,以应对信息爆炸带来的严重挑战。与信息检索不同,信息抽取直接从自然语言文本中抽取事实信息。过去十多年来,信息抽取逐步发展成为自然语言处理领域的一个重要分支,其独特的发展轨迹——通过系统化、大规模地定量评测推动研究向前发展,以及某些成功启示,如部分分析技术的有效性、快速NLP系统开发的必要性,都极大地推动了自然语言处理研究的发展,促进了NLP研究与应用的紧密结合。回顾信息抽取研究的历史,总结信息抽取研究的现状,将有助于这方面研究工作向前发展。
10.Class-based Language Modeling for Named Entity Identification (Draft)
Jian Sun, Ming Zhou, Jianfeng Gao

(Accepted by special issue ///////"Word Formation and Chinese Language processing///////" of the International Journal of Computational Linguistics and Chinese Language Processing) Abstract: We address in this paper the problem of Chinese named entity (NE) identification using class-based language models (LM). This study is concentrated on three kinds of NEs that are most commonly used, namely, personal name (PER), location name (LOC) and organization name (ORG). Our main contributions are three-fold: (1) In our research, Chinese word segmentation and NE identification have been integrated into a unified framework. It consists of several sub-models, each of which in turn may include other sub-models, leads to the overall model a hierarchical architecture. The class-based hierarchical LM not only effectively captures the features of named entities, but also handles the data sparseness problem. (2) Modeling for NE abbreviation is put forward. Our modeling-based method for NE abbreviation has significant advantages over rule-based ones. (3) In addition, we employ a two-level architecture for ORG model, so that the nested entities in organization names can be identified. When decoding, two-step strategy is adopted: identifying PER and LOC; and identifying ORG. The evaluation on a large, wide-coverage open-test data has empirically demonstrated that the class-based hierarchical language modeling, which integrates segmentation and NE identification, unifies the abbreviation modeling into one framework, has achieved competitive results of Chinese NE identification.
11.BBN公司的信息抽取系统SIFT(中文详细说明)
Scott Miller, Michael Crystal, Heidi Fox, Lance Ramshaw, Richard Schwartz,
这是BBN的MUC7参评系统SIFT系统的说明,我把它翻译了一下,基本意思很明了,但部分细节我可能还没有把握准确,如果有问题,请给我来信说明。
12.(slides) Chinese Named Entity Identification using class-based language model
Jian Sun, Jianfeng Gao, Lei Zhang, Ming Zhou, and Changning Huang
This is the slides for the 19th International Conference on Computational Linguistics
13.Chinese Named Entity Identification using class-based language model
Jian Sun, Jianfeng Gao, Lei Zhang, Ming Zhou, and Changning Huang
We consider here the problem of Chinese named entity (NE) identification using statistical language model(LM). In this research, word segmentation and NE identification have been integrated into a unified framework that consists of several class-based language models. We also adopt a hierarchical structure for one of the LMs so that the nested entities in organization names can be identified. The evaluation on a large test set shows consistent improvements. Our experiments further demonstrate the improvement after seamlessly integrating with linguistic heuristic information, cache-based model and NE abbreviation identification.
14.MUC-7 EVALUATION OF IE TECHNOLOGY: Overview of Results
Elaine Marsh, Dennis Perzanowski
reviews MUC-7 and introduces the result and progress during this conference
15.Method of k-Nearest Neighbors
16.Multilingual Topic Detection and Tracking:Successful Research Enabled by Corpora and Evaluation
Charles L. Wayne
Topic Detection and Tracking (TDT) refers to automatic techniques for locating topically related material in streams of data such as newswire and broadcast news. DARPA-sponsored research has made enormous progress during the past three years, and the tasks have been made progressively more difficult and realistic. Well-designed corpora and objective performance evaluations have enabled this success.
17.信息提取概述
骆卫华的综述报告
18.Information Extraction Supported Question Answering
Cymfony公司的IE系统,主要面向QA,包括已实现的NE系统和将要实现的CE和GE的原型。
19.ALGORITHMS THAT LEARN TO EXTRACT INFORMATION
20.Description of the American University in Cairo/"s System Used for MUC-7
21.Analyzing the Complexity of a Domain With Respect To An Information Extraction Task
22.从半结构化文本与自由格式文本中学习信息抽取规则 

作者Stephen Soderland为华盛顿州立大学计算机科学系教授。本文的被引用次数高达50多次。论文以信息抽取系统WHISK系统为例,描述了如何以机器学习的方式,利用小规模样本训练系统自动学习目标文本的抽取模式,从而实现自动化信息抽取的一种技术。这种技术不但极具启发意义而且很有实用价值。
23.信息抽取研究综述 

本文出自北京大学计算机科学与技术系,综述了信息抽取的一些基本概念。
24.利用Lixto进行可视化的信息抽取 

作者分析了Lixto抽取系统的架构,介绍了一种半自动化的Wrapper生成技术与自动化Web信息抽取技术。
25.Web数据抽取工具综述 

作者将目前的几种Web数据抽取工具按照六种分类:Wrapper开发语言,可感知HTML的工具,基于NLP的工具,Wrapper归纳工具,基于建模的工具,基于语义的工具依次介绍了各Web数据抽取工具的工作原理与特点,并且比较了它们的一般输出质量。
26.针对BBS短文本的提取标注
单向器本文前半段将会介绍有关本体的相关概念,后一部分将介绍本体在我们系统中的应用。为了配合信息提取,需要一些先验性的知识和统计信息。所以,我们构造了自己的针对BBS短文本的提取标注工具。为此构建了本体知识并以直观方式展现出来。结合本体推理机,我们的标注工具在标注的同时具备推理能力使得标注智能化,并能通过引用一个包装好的提取算法进行提取预览。医用镊子

27.XWRAP  An XML enabled Wrapper Construction System for Web Information Sources(点击下载)碳膜电位器 
Ling Liu  Calton Pu  Wei Han 
This paper describes the methodology and the software development of XWRAP an XMLenabled wrapper construction system for semiautomatic generation of wrapper programs By XMLenabled we mean that the metadata about information content that are implicit in the original web pages will be extracted and encoded explicitly as XML tags in the wrapped documents In addition the querybased content ltering process is performed against the XML documents The XWRAP wrapper generation framework has three distinct features First it explicitly separates tasks of building wrappers that are specic to a Web source from the tasks that are repetitive for any source and uses a component library to provide basic building blocks for wrapper programs Second it provides a userfriendly interface program to allow wrapper developers to generate their wrapper code with a few mouse clicks Third and most importantly we introduce and develop a twophase code generation framework The rstphase utilizes an interactive interface facility to encode the sourcespecic metadata knowledge identied by individual wrapper developers as declarative information extraction rules The second phase combines the information extrac tion rules generated at the rst phase with the XWRAP component library to construct an executable wrapper program for the given web source We report the initial experiments on performance of the XWRAP code generation system and the wrapper programs generated by XWRAP   

28.Data Mining on Symbolic Knowledge Extracted from the Web(点击下载) 
Rayid Ghani, Rosie Jones, Dunja Mladeni′cy, Kamal Nigam, Se′an Slattery 
Information extractors and classifiers operating on unrestricted, unstructured texts are an errorful source of large amounts of potentially useful information, especially when combined with a crawler which automatically augments the knowledge base from the world-wide web. At the same time, there is much structured information on the WorldWideWeb. Wrapping the web-sites which provide this kind of information provide us with a second source of information; possiblyless up-to-date, but reliable as facts. We give a case study of combining information from these two kinds of sources in the context of learning facts about companies. We provide results of association rules, propositional and relational learning, which demonstrate that data-mining can help us improve our extractors, and that using information from two kinds of sources improves the reliability of data-mined rules. 

29.A Brief Survey of Web Data Extraction Tools(点击下载) 
Alberto H. F. Laender Berthier A. RibeiroNeto 
Altigran S. da Silva Juliana S. Teixeira 
In the last few years, several works in the literature have addressed the problem of data extraction from Web pages. The importance of this problem derives from the fact that, once extracted, the data can be handled in a way similar to instances of a traditional database. The approaches proposed in the literature to address the problem of Web data extraction use techniques borrowed from areas such as natural language processing, languages and grammars, machine learning, information retrieval,... 

30.Toward Semantic Understanding|An Approach Based on Information Extraction Ontologies(点击下载) 
Information is ubiquitous, and we are ooded with more than we can process. Somehow, we must rely less on visual processing, point-and-click navigation, and manual decision making and more on computer sifting and organization of information and auto-mated negotiation and decision making. A resolution of these problems requires software with semantic understanding|a grand challenge of our time. More particularly, we must solve problems of automated interoperability, integration, and knowledge sharing, and we must build information agents and process agents that we can trust to give us the information we want and need and to negotiate on our behalf in harmony with our beliefs and goals. This paper pro ers the use of information-extraction ontologies as an approach that may lead 
to semantic understanding. Keywords: Semantics, information extraction, high-precision classi cation, schema mapping, data inte-gration, Semantic Web, agent communication, ontology, ontology generation. 

31.基于《知网》的中文信息结构抽取(点击下载) 
The Chinese message structure is composed of several Chinese fragments which may be characters words or phrases. Every message structure carries certain information. We have developed a HowNet-based extractor that can extract Chinese message structures from a real text and serves as an interactive tool for building large-scale bank of Chinese message structures. The system utilizes the HowNet Knowledge System as its basic resources. It is an integrated system of rule-based analyzer, statistics based on the examples and the analogy given by HowNet-based concept similarity calculator. 
Keyword: Chinese message structure; Knowledge Database Mark-up Language (KDML); parsing; chunk; 

32.Wrapper induction?? Efficiency and expressiveness Extended abstract(点击下载) 
Recently  many systems have been built that auto matically interact with Internet information resources However these resources are usually formatted for use by peopleeg the relevant content is embedded in HTML pages Wrappers are often used to extract a resources content  but handcoding wrappers is tedious and errorprone We advocate wrapper induction  a technique for automatically constructing wrappers We have identi ed several wrapper classes that can be learned quickly  most sites require only a handful of examples consuming a few CPU seconds of processing yet which are useful for handling numerous Internet resources  of surveyed sites can be handled by our techniques 

33.WysiWyg Web Wrapper Factory (W4F)(点击下载) 
In this paper, we present the W4F toolkit for the generation of wrappers for Web sources. W4F consists of a retrieval language to identify Web sources, a declarative extraction language (the HTML Extraction Language) to express robust extraction rules and a map-ping interface to export the extracted information into some userde ned data-structures. To assist the user and make the creation of wrappers rapid and easy, the toolkit o ers some wysiwyg support via some wizards. Together, they permit the fast and semi-automatic generation of ready-to-go wrappers provided as Java classes. W4F has been successfully used to generate wrappers for database systems and software agents, making the content of Web sources easily accessible to any kind of application. 

34.Adaptive Information Extraction from Text by Rule Induction and Generalisation(点击下载) 
(LP)2 is a covering algorithm for adaptive Information Extraction from text (IE). It induces symbolic rules that insert SGML tags into texts by learning from examples found in a userdefined tagged corpus. Training is performed in two steps: initially a set of tagging rules is learned; then additional rules are induced to correct mistakes and imprecision in tagging. Induction is performed by bottom-up generalization of examples in the training corpus. Shallow knowledge about Natural Language Processing (NLP) is used in the generalization process. The algorithm has a considerable success story. From a scientific point of view, experiments report excellent results with respect to the current state of the art on two publicly available corpora. From an application point of view, a successful industrial IE tool has been based on (LP)2. Real world applications have been developed and licenses have been released to external companies for building other applications. This paper presents (LP)2, experimental results and applications, and discusses the role of shallow NLP in rule induction. 

35.Advanced Web Technology Information Extraction(点击下载) 

本文发布于:2024-09-22 03:41:00,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/1/113876.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:技术   信息   用户
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议