当前位置:首页 > Java

如何用java写爬虫

2026-03-04 02:23:11Java

使用Java编写爬虫的方法

Java编写爬虫通常需要借助第三方库如Jsoup或HttpClient,以下是具体实现方式:

使用Jsoup库

Jsoup是一款专门用于解析HTML的Java库,适合处理网页内容:

import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

public class JsoupCrawler {
    public static void main(String[] args) throws Exception {
        String url = "https://example.com";
        Document doc = Jsoup.connect(url).get();
        Elements links = doc.select("a[href]");

        for (Element link : links) {
            System.out.println(link.attr("abs:href"));
        }
    }
}

使用HttpClient库

Apache HttpClient更适合处理HTTP请求,需要配合HTML解析器:

import org.apache.http.client.methods.CloseableHttpResponse;
import org.apache.http.client.methods.HttpGet;
import org.apache.http.impl.client.CloseableHttpClient;
import org.apache.http.impl.client.HttpClients;
import org.apache.http.util.EntityUtils;

public class HttpClientCrawler {
    public static void main(String[] args) throws Exception {
        CloseableHttpClient client = HttpClients.createDefault();
        HttpGet request = new HttpGet("https://example.com");

        try (CloseableHttpResponse response = client.execute(request)) {
            String html = EntityUtils.toString(response.getEntity());
            // 使用Jsoup或其他解析器处理html
        }
    }
}

处理动态内容

对于JavaScript渲染的页面,可使用Selenium WebDriver:

import org.openqa.selenium.WebDriver;
import org.openqa.selenium.chrome.ChromeDriver;

public class SeleniumCrawler {
    public static void main(String[] args) {
        System.setProperty("webdriver.chrome.driver", "chromedriver路径");
        WebDriver driver = new ChromeDriver();

        try {
            driver.get("https://example.com");
            String pageSource = driver.getPageSource();
            // 处理获取的页面源码
        } finally {
            driver.quit();
        }
    }
}

存储爬取数据

可将数据存储到文件或数据库:

import java.io.FileWriter;
import java.io.IOException;

public class DataStorage {
    public static void saveToFile(String data, String filename) throws IOException {
        try (FileWriter writer = new FileWriter(filename, true)) {
            writer.write(data + "\n");
        }
    }
}

遵守robots.txt

爬虫应尊重网站的robots.txt规则:

import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;

public class RobotsChecker {
    public static boolean isAllowed(String url) throws Exception {
        String robotsUrl = new URL(url).getProtocol() + "://" + 
                         new URL(url).getHost() + "/robots.txt";
        Document doc = Jsoup.connect(robotsUrl).get();
        return !doc.text().contains("Disallow: /");
    }
}

异常处理和限速

添加异常处理和请求间隔:

import java.util.concurrent.TimeUnit;

public class PoliteCrawler {
    public static void crawl(String url) {
        try {
            TimeUnit.SECONDS.sleep(1); // 延迟1秒
            Document doc = Jsoup.connect(url)
                              .timeout(5000)
                              .get();
            // 处理文档
        } catch (Exception e) {
            System.err.println("Error crawling " + url + ": " + e.getMessage());
        }
    }
}

如何用java写爬虫

标签: 爬虫如何用
分享给朋友:

相关文章

如何用VUE实现倍速

如何用VUE实现倍速

使用Vue实现视频倍速播放 在Vue中实现视频倍速播放可以通过HTML5的<video>元素和Vue的数据绑定功能来完成。以下是实现方法: 安装Vue 确保项目中已经安装Vue。如果没有…

如何用vue实现轮播

如何用vue实现轮播

使用Vue实现轮播 基础实现(基于原生Vue) 创建轮播组件,通过动态绑定v-for和v-show控制显示当前幻灯片: <template> <div class="carou…

react hooks如何用

react hooks如何用

使用 React Hooks 的基本方法 React Hooks 是 React 16.8 引入的功能,允许在函数组件中使用状态和其他 React 特性。以下是几种常用 Hooks 的用法。 use…

react如何用jq

react如何用jq

在React中使用jQuery React和jQuery可以一起使用,但需要注意两者的DOM操作方式不同。React使用虚拟DOM,而jQuery直接操作真实DOM。混合使用时需谨慎避免冲突。 安…

如何用react做分页

如何用react做分页

使用 React 实现分页功能 分页是 Web 开发中常见的需求,React 可以通过状态管理和组件化轻松实现分页功能。以下是实现分页的几种方法。 基础分页实现 定义状态 使用 useState…

如何用react做增删

如何用react做增删

使用React实现增删功能 在React中实现增删功能通常涉及状态管理和列表渲染。以下是一个完整的实现方案: 初始化状态 需要定义一个状态来存储列表数据,可以使用useState钩子: c…