结合LangChain实现网页数据爬取

LangChain 非常强大的一点就是封装了非常多强大的工具可以直接使用。降低了使用者的学习成本。比如数据网页爬取

在其官方文档-网页爬取中,也有非常好的示例。

应用场景

  • 信息爬取。

  • RAG 信息检索。

实践应用

需求说明

  • 从 ceshiren 网站中获取每个帖子的名称以及其对应的url信息。

  • ceshiren论坛地址:https://ceshiren.com/

实现思路

结合LangChain实现网页数据爬取

对应源码

# 定义大模型from langchain_openai import ChatOpenAIllm = ChatOpenAI(temperature=0, model="gpt-3.5-turbo-0613")
# 定义提取方法def extract(content: str, schema: dict):from langchain.chains import create_extraction_chainreturn create_extraction_chain(schema=schema, llm=llm).invoke(content)
import pprintfrom langchain_text_splitters import RecursiveCharacterTextSplitterdef scrape_with_playwright(urls, schema):# 加载数据loader = AsyncChromiumLoader(urls)docs = loader.load()# 数据转换bs_transformer = BeautifulSoupTransformer()# 提取其中的span标签docs_transformed = bs_transformer.transform_documents(docs, tags_to_extract=["span"])# 数据切分splitter = RecursiveCharacterTextSplitter.from_tiktoken_encoder(chunk_size=1000, chunk_overlap=0)splits = splitter.split_documents(docs_transformed)# 因为数据量太大,输入第一片数据使用,传入使用的架构extracted_content = extract(schema=schema, content=splits[0].page_content)pprint.pprint(extracted_content)return extracted_content
urls = ["https://ceshiren.com/"]schema = {"properties": {"title": {"type": "string"},"url": {"type": "string"},},"required": ["title", "url"],}extracted_content = scrape_with_playwright(urls, schema=schema)

总结

  1. 了解网页爬取的实现思路以及相关技术。

  2. 通过LangChain实现爬取测试人网页的标题和url。

前沿技术新闻资讯知识图谱

翻译|GraphRAG:超越炒作的实用之道

2026-4-23 21:45:24

企业落地数字员工新闻资讯

可信任的AI Agent是通向智能应用的必经之路

2026-4-23 21:56:28

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
购物车
优惠劵
搜索