|
<%
String sCurrentLine;
String sTotalString;
sCurrentLine="";
sTotalString="";
Java.io.InputStream l_urlStream;
Java.NET.URL l_url = new Java.NET.URL("http://www.163.NET/");
Java.NET.HttpURLConnection l_connection = (Java.NET.HttpURLConnection) l_url.openConnection();
l_connection.connect();
l_urlStream = l_connection.getInputStream();
Java.io.BufferedReader l_reader = new Java.io.BufferedReader(new Java.io.InputStreamReader(l_urlStream));
while ((sCurrentLine = l_reader.readLine()) != null)
{
sTotalString+=sCurrentLine;
}
out.println(sTotalString);
%>
后记
虽然代码比较简单,但是,我认为根据这个,可以实现“网络爬虫”的功能,比如从页面找href连接,然后再得到那个连接,然后再“抓”,不停止地(当然可以限定层数),这样,可以实现“网页搜索”功能。
jsp技术:JSP抓取网页代码的程序,转载需保留来源!
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。