Baidu搜索小偷ASP完美版

[原创]Baidu搜索小偷ASP完美版
文章标题:[原创]Baidu搜索小偷ASP完美版顶部 勇敢的风 发布于:2006-03-2923:38  [楼主][原创]Baidu搜索小偷ASP完美版
文章作者:勇敢的风[E.S.T顾问团]fengblog名师帮你赢高考
信息来源:邪恶八进制信息安全团队(www.eviloctal)
Quote:
<%
'--------------------------------
'Baidu搜索小偷ASP完美版
';作者:勇敢的风
'Blog:fengblog
';使用或转载请保留这些信息
' VarVBScript1.0
'    2006.3
';由于Baidu经常修改界面,该版仅适用于2006年3月之前的最后一次该版
';如搜索时出现错误或者提取的内容混乱则表示该版本寿命已用尽。
'--------------------------------
Functionbytes2BSTR(vIn)
strReturn=""
Fori=1ToLenB(vIn)
ThisCharCode=AscB(MidB(vIn,i,1))
IfThisCharCode<&H80Then
strReturn=strReturn&Chr(ThisCharCode)
Else
NextCharCode=AscB(MidB(vIn,i+1,1))
strReturn=strReturn&Chr(CLng(ThisCharCode)*&H100+CInt(NextCharCode))
i=i+1
EndIf
Next
bytes2BSTR=ubb(strReturn)
EndFunction
Functiondq(key)
dimXmlHttp
setXmlHttp=CreateObject("Microsoft.XMLHTTP")
XmlHttp.Open"GET","www.baidu/s?wd="&key"&pn="&request("pn"),false
XmlHttp.setRequestHeader"Content-Type","text/XML"
XmlHttp.Send
dq=sponseBody)
EndFunction
FunctionBR(Str)
Str=Replace(Str,"{br}","<br>")
Str=Replace(Str,vbcrlf,"<br>")
Str=Replace(Str,"<br><br>","<br>")
Str=Replace(Str,"<br><br>","<br>")
Str=Replace(Str,"<br><br>","<br>")
BR=Str
EndFunction
functionubb(str)
ifinstr(str,"到相关网页")=0then
ubb="没有搜索到任何内容"
exitfunction
endif
str=Replace(str,vbcrlf,"{br}")
str=Replace(str,"<br>","{br}")
str=Replace(str,"</td>","</td>"&vbcrlf)
str=Replace(str,"<td",vbcrlf"<td")
dimre,Match,Matches
setre=NewRegExp
re.Global=True
re.IgnoreCase=True
re.Pattern=".*\<tdclass=f>(.*)\<\/td>"
SetMatches=re.Execute(str)
ForEachMatchinMatches
ubb=ubb&BR(Match.value)
next
re.Pattern="(\-\<a.[^\<]*>百度快照\<\/a>)"
place(ubb,"")
re.Pattern="(\<aclass=""m"".[^\<]*>.[^\<]*\<\/a>)"
place(ubb,"")
re.Pattern="(\<fontcolor=#008000>.[^\<]*\<\/font>)"
place(ubb,"<hr>")';每一条信息的间隔
ubb=Replace(ubb,"<tdclass=f>","")
ubb=Replace(ubb,"</td>","")
ubb=BR(UBB)
re.Pattern="(到相关网页.*秒)"
SetMatches=re.Execute(str)
setMatch=Matches(0)
ubb=ubb&Match&"<br>"
str=Replace(str,"</div>","</div>"&vbcrlf)
re.Pattern="\<divclass=""p"">(.*)\<\/div>"
SetMatches=re.Execute(str)
setMatch=Matches(0)
DimTheLink
宋香波TheLink=Match
宿娅
re.Pattern="href=s?(.[^>]*)"
place(TheLink,"href=""$1""")
ubb=ubb&TheLink
endfunction
iflen(request("wd"))>0then
response.writedq(request("wd"))
endif
%>
<formmethod=postaction="?">
<inputtype="tex
t"name="wd"><inputtype="submit">
</form>
[此贴被勇敢的风在2006-03-2923:48重新编辑]顶部 风雪残士 发布于:2006-03-3020:23  [1楼]
样子不太美观嘿嘿快照这些功能也没 不过网上也有同类小偷为了不被说灌水俺就贴上来
希望不要介意
index.asp
Copycode
<!--#includefile=Function.asp-->
<%
dimurl,Wstr,we,wf,lm,si,rn,ie,ct,pn,cl
we=Request.QueryString("wd")
Ifwe=""Then
Response.Write("<tablewidth=760border=0cellpadding=0align=centercellspacing=0height=202><trheight=25><tdalign=center><imgsrc=www.baidu/img/logo.gifwidth=174alt=""PoweredByBaiDu""height=59border=0><br>在全球10亿中文网页中搜索:</td></tr><trvalign=centerheight=40><tdalign=center><formname=faction=index.asp><inputtype=textname=wdclass=ffsize=35maxlength=100value=""请在这里输入关键字""onMouseOver=""this.focus()""onblur=""if(this.value=='')this.value=';请在这里输入关键字'""onFocus=""this.select()""onClick=""if(this.value==';请在这里输入关键字')this.value=''""><inputtype=hiddenname=clvalue=3><inputtype=submitvalue=给我搜!><br><br><scriptsrc='img/re
men.js'></script><br><br></form></td></tr></table>")
Else
wf=we
lm=Request.QueryString("lm")
si=Request.QueryString("si")
rn=Request.QueryString("rn")
ie=Request.QueryString("ie")
米老鼠和唐老鸭电影ct=Request.QueryString("ct")
pn=Request.QueryString("pn")
cl=Request.QueryString("cl")
url="[url]www.baidu/s?tn=lzc444&wd=[/url]"&wf"&lm="&lm"&si="&si"&rn="&rn"&ie="&ie"&ct="&ct"&pn="&pn"&cl="&cl""
Wstr=Gethttppage(Url)
body=GetBody(Wstr,"<tableborder=""0""cellpadding=""0""cellspacing=""0""><tr><tdclass=f>","<divtext-align:center;background-color:#e6e6e6;height:20px;padding-top:2px;font-size:12px;"">",true,false)
body=replace(body,"<tdnowrap><ahref=""[url]utility.baidu/quality/quality_form.php[/url]","<!--")
body=replace(body,"与百度对话</a></td>","</a></td-->")
body=replace(body,"s?","index.asp?")
body=replace(body,"""/s""","index.asp")
body=replace(body,"value=百度搜索","value=给我搜!")
body=replace(body,"百度快照","网页快照")
body=replace(body,"<tdnowrap>","<tdwidth=20></td><tdnowrap>")
body=replace(body,"margin-left:18px","margin-left:0px")
body=replace(body,"<tr><td></td></tr>","")
body=replace(body,"<inputtype=buttonvalue=在结果中onclick=""returnmy_submit(f2);"">","")
Response.Write("<tableborder=""0""cellpadding=""0""cellspacing=""0""margin-left:18px;height:60px;""><formname=f2action=""index.asp""><trvalign=""middle""><tdnowrap><inputtype=hiddenname=tnvalue=""lzc444""><inputtype=hiddenname=ctvalue=""0""><inputtype=hiddenname=ievalue=""gb2312""><inputtype=hiddenname=bsvalue=""bs""><inputtype=hiddenname=sr><inputtype=hiddenname=zvalue=""""><inputtype=hiddenname=clvalue=3><inputtype=hiddenname=fvalue=8><inputname=wdsize=""35""class=ivalue=""""maxlength=
100><inputtype=submitvalue=给我搜!> </td><!--?word=22""></a></td--></tr></form></table><hr>")
Response.WriteBody
Endif
%>
Function.asp
Copycode
<%
FunctionGetHttpPage(HttpUrl)
IfIsNull(HttpUrl)=TrueOrHttpUrl="$False$"Then
GetHttpPage="$False$"
ExitFunction
EndIf
DimHttp
ateobject("MSXML2.XMLHTTP")
Http.open"GET",HttpUrl,False
Http.Send()
IfHttp.Readystate<>4then
SetHttp=Nothing
GetHttpPage="$False$"
Exitfunction
Endif
GetHTTPPage=sponseBody,"GB2312")
SetHttp=Nothing
IfErr.number<>0then
Err.Clear
EndIf
深圳创业板
EndFunction
FunctionBytesToBstr(Body,Cset)
DimObjstream
SetObjstream=Server.CreateObject("adodb.stream")
objstream.Type=1
objstream.Mode=3
objstream.Open
objstream.Writebody
创造性思维方法objstream.Position=0
objstream.Type=2
objstream.Charset=Cset
BytesToBstr=objstream.ReadText
objstream.Close
setobjstream=nothing
EndFunction
FunctionGetBody(ConStr,StartStr,OverStr,IncluL,IncluR)
IfConStr="$False$"orConStr=""orIsNull(ConStr)=TrueOrStartStr=""orIsNull(StartStr)=TrueOrOverStr=""orIsNull(OverStr)=TrueThen
GetBody="$False$"
ExitFunction
EndIf
DimConStrTemp
DimStart,Over
ConStrTemp=Lcase(ConStr)
StartStr=Lcase(StartStr)
OverStr=Lcase(OverStr)
Start=InStrB(1,ConStrTemp,StartStr,vbBinaryCompare)
IfStart<=0then
GetBody="$False$"
ExitFunction
Else
IfIncluL=FalseThen
Start=Start+LenB(StartStr)
EndIf
EndIf
Over=InStrB(Start,ConStrTemp,OverStr,vbBinaryCompare)
IfOver<=0OrOver<=Startthen
GetBody="$False$"
ExitFunction
Else
IfIncluR=TrueThen
Over=Over+LenB(OverStr)
EndIf
EndIf
GetBody=MidB(ConStr,Start,Over-Start)
EndFunction
%>
就ok了顶部 寂寞宝贝 发布于:2006-04-0816:11  [2楼]
楼上的兄弟也不怕被禁言。。我还真佩服你呢!有个疑问,谁解释一下百度为什么会搜索到一些隐私的问题,比如很出名的googlehack,到底他是利用了什么原理,我试过把我后台改名字,但用GOOGLE那招还是出来了!郁闷中!顶部 千寂孤城 发布于:2006-04-0817:44  [3楼]
建议楼上的看看关于的东西。我抄一篇在这儿:
搜索引擎无论是针对英文还是中文,都是采用网上机器人来实现网上搜索。(人工目录象Yahoo、DMOZ等是例外)。
网上机器人 
网上机器人(Robot)又被称作Spider、Worm或Random,核心目的是为获取在Internet上的信息。机器人利用主页中的超文本链接遍历Web,通过URL引用从一个HTML文档爬行到另一个HTML文档。网上机器人收集到的信息可有多种用途,如建立索引、HTML文件的验证、URL链接验证、获取更新信息、站点镜象等。
机器人寻WWW文档的算法 
机器人要在网上爬行,因此需要建立一个URL列表来记录访问的轨迹。使用的是超文本,指向其它文档的URL是隐藏在文档中,需要从中分析提
取URL;机器人一般都用于生成索引数据库。所有WWW的搜索程序都有类似步骤:
1)机器人从起始URL列表中取出URL并从网上读取其内容; 
2)从每一个文档中提取某些信息并放入索引数据库中;
3)从文档中提取指向其它文档的URL,并加入到URL列表中;
4)重复上述3个步骤,直到再没有新的URL发现或超出了某些限制(时间或磁盘空间);
5)给索引数据库加上查询接口,向网上用户发布。算法有深度优先和广度优先两种基本的搜索策略。机器人以URL列表存取的方式决定搜索策略:
1)先进先出,则形成广度优先搜索。当起始列表包含有大量的Web服务器地址时,广度优先搜索将产生一个很好的初始结果,但很难深入到服务器中去。
2)先进后出,则形成深度优先搜索。这样能产生较好的文档分布,更容易发现文档的结构,即到最大数目的交叉引用。
结果处理技术
网页评选的主要因素:搜索引擎应该能够到与搜索要求相对应的站点,并按其相关程度将搜索结果排序。这里的相关程度是指搜索关键字在文档中出现的频度,最高为1。当频度越高时,则认为该文档的相关程度越高。但由于目前的搜索引擎还不具备智能,除非你知道要查的文档的标题,否则排列第一的结果未必是"最好"的结果。所以有些文档尽管相关程度高,但并不一定是用户更需要的文档。
搜索引擎是一个技术含量很高的电脑网络应用系统。它包括网络技术、数据库技术、检索技术、智能技术等等。在这一方面,由于国外的很多先进技术是建立在西文内核的基础上,所以我们还不能单纯引进照搬照抄。作为中文搜索引擎来讲,如何来发挥我们在中文处理上的长处,发展出有我们自己版权的核心技术,使我们在中文搜索引擎的竞争中占有有利地位。
网页评选的四个主要因素:
a.网页数据库的大小,主要是人工浏览后定的。
b.检索响应的时间,主要是程序里得出的。
程序首先记下访问搜索引擎开始的时间,然后到取得记录后,又记下当时的时间,然后把两个时间减一下就得出了检索响应的时间。
c.网页的质量划分主要也是由人工排定的。
搜索引擎总是要将检索结果返回给用户,而结果显示的好坏直接影响到搜索引擎的使用效果。因此,结果显示的内容组织,如何排序,是否提供足够的相关信息(内码、文件大小、文件Ri期等),对用户对检索结果的判断具有很大的影响。
d.各个网站的相关度和以下因素有关:各个网站的相关度;能够区分搜索结果的相关性(Pertinency)。
人为的对网站设定一个相关系数,如Yahoo1.0,Goyoyo0.94等;
链接
,Summary中出现的关键词的次数;
记录返回时间,即检索响应的时间
结果处理
(1)按频次排定次序
通常来说,如果一个页面包含了越多的关键词,其搜索目标的相关性应该越好,这是非常合乎常理的解决方案。
(2)按页面被访问度排序
在这种方法中,搜索引擎会记录它所搜索到的页面被访问的频率。人们访问较多的页面通常应该包含信息比较多,或者有其它吸引人的长处。这种解决方案适合一般的搜索用户,而因为大部分的搜索引擎都不是专业性用户,所以这种方案也比较适合一般搜索器使用。
(3)进一步净化(refine)结果
按照一定的条件对搜索结果再进行优化,可以再选择类别、相关词等。
如何建立一个文件
为获得在某一搜索引擎中的排名,您根据其排名规律,精心设计某一页面,使其符合得很好,登记后也获得理想的排名。
由于各搜索引擎排名规则各异,您的某一页面能获得某一搜索引擎中的好的排名,但通常情况下,对于其他搜索引擎,排名就差得很远。
为此,有人在站点中复制出内容相同的不同文件名的页面,并对复制页面的原标记进行修改,以期符合其他搜索引擎排名规则。
然而,许多搜索引擎一旦发现您站点中有异常“克隆”页面,会给予惩罚,不收录您的页面。
<就是为了解决这问题。
我们给出样本:
User-agent:{SpiderNameHere}
Disallow:{FileNameHere}
譬如,如果您想告诉Excite搜索引擎的Spider(ArchitextSpider),不检索您站点中三个特定页面,您可这样操作:
User-agent:ArchitextSpider
Disallow:/orderform.html
Disallow:/product1.html
Disallow:/product2.html
如果您不想让Excite的Spider检索在abc目录下的def.htm文件:
User-agent:ArchitextSpider
Disallow:/abc/def.htm
不检索整个mydirectory目录:
User-agent:ArchitextSpider
Disallow:/mydirectory/
不让所有Spider检索:
User-agent:*
不检索整个站点:
Disallow:/
我们给出其他实例:
User-agent:ArchitextSpider
Disallow:/abc/def.htm
User-agent:Infoseek
Disallow:/ghi/jkl.htm
User-agent:ArchitextSpider
User-agent:Infoseek
Disallow:/abc/def.htm
Disallow:/ghi/jkl.htm
如下列表为世界各大搜索引擎和其对应的User-Agent,供大家参考。
搜索引擎User-Agent
AltaVistaScooter
InfoseekInfoseek
HotbotSlurp
AOLSearchSlurp
ExciteArchitextSpider
GoogleGooglebot
GotoSlurp
LycosLycos
MSNSlurp
NetscapeGooglebot
NorthernLightGulliver
WebCrawlerArchitextSpider
IwonSlurp
FastFast
DirectHitGrabber
YahooWebPagesGooglebot
LooksmartWebPagesSlurp
小心Slurp,如果您不想让其检索一个页面,这会使多个其他搜索引擎也不检索该页面。通常,用Slurp的搜索引擎规则差不多。

本文发布于:2024-09-21 02:40:48,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/680781.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:搜索   搜索引擎   文档   检索   信息   结果   页面   相关
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议