天气与日历 切换到窄版

 找回密码
 立即注册

QQ登录

只需一步,快速开始

【好消息,好消息,好消息】VIP会员可以发表文章赚积分啦 !
查看: 406|回复: 0

[Python教程] 写一个爬虫在网易云课堂(https://study.163.com) 里面并抓取300...

[复制链接]

3188

主题

4

回帖

3290

积分

管理员

积分
3290
发表于 2024-2-26 11:01:31 | 显示全部楼层 |阅读模式
写一个爬虫在网易云课堂(https://study.163.com) 里面并抓取300条课程信息,并进行保存以下是一个使用Python编写的简单爬虫示例,用于在网易云课堂上抓取300条课程信息并保存到文件中。请确保安装了Python和相关的库(如requests和BeautifulSoup)。


import requests
from bs4 import BeautifulSoup
def scrape_courses():
    url = "https://study.163.com"
    response = requests.get(url)
    soup = BeautifulSoup(response.text, "html.parser")
     courses = []
    course_count = 0
     # 获取课程信息
    course_elements = soup.find_all("div", class_="m-course-card")
    for course_element in course_elements:
        if course_count >= 300:
            break
         course_title = course_element.find("h3", class_="card-name").text.strip()
        course_price = course_element.find("span", class_="normal-price").text.strip()
         course = {
            "title": course_title,
            "price": course_price
        }
         courses.append(course)
        course_count += 1
     return courses
def save_courses(courses):
    with open("courses.txt", "w", encoding="utf-8") as file:
        for course in courses:
            file.write(f"课程名称: {course['title']}\n")
            file.write(f"价格: {course['price']}\n")
            file.write("\n")
# 执行爬虫并保存课程信息
courses = scrape_courses()
save_courses(courses)




这个爬虫使用requests库发送HTTP请求获取网页内容,并使用BeautifulSoup库解析HTML。它会抓取网易云课堂主页上的课程信息,最多抓取300条课程。抓取的课程信息包括课程名称和价格,并保存到一个名为 courses.txt 的文本文件中。
请注意,网站的结构和内容可能会变化,如果网易云课堂的页面结构发生变化,可能需要调整代码以适应新的页面结构。此外,请遵守网站的使用条款和条件,确保您的爬虫行为合法且不会对网站造成过大的负担。

相关帖子

扫码关注微信公众号,及时获取最新资源信息!下载附件优惠VIP会员5折;永久VIP免费
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

免责声明:
1、本站提供的所有资源仅供参考学习使用,版权归原著所有,禁止下载本站资源参与商业和非法行为,请在24小时之内自行删除!
2、本站所有内容均由互联网收集整理、网友上传,并且以计算机技术研究交流为目的,仅供大家参考、学习,请勿任何商业目的与商业用途。
3、若您需要商业运营或用于其他商业活动,请您购买正版授权并合法使用。
4、论坛的所有内容都不保证其准确性,完整性,有效性,由于源码具有复制性,一经售出,概不退换。阅读本站内容因误导等因素而造成的损失本站不承担连带责任。
5、用户使用本网站必须遵守适用的法律法规,对于用户违法使用本站非法运营而引起的一切责任,由用户自行承担
6、本站所有资源来自互联网转载,版权归原著所有,用户访问和使用本站的条件是必须接受本站“免责声明”,如果不遵守,请勿访问或使用本网站
7、本站使用者因为违反本声明的规定而触犯中华人民共和国法律的,一切后果自己负责,本站不承担任何责任。
8、凡以任何方式登陆本网站或直接、间接使用本网站资料者,视为自愿接受本网站声明的约束。
9、本站以《2013 中华人民共和国计算机软件保护条例》第二章 “软件著作权” 第十七条为原则:为了学习和研究软件内含的设计思想和原理,通过安装、显示、传输或者存储软件等方式使用软件的,可以不经软件著作权人许可,不向其支付报酬。若有学员需要商用本站资源,请务必联系版权方购买正版授权!
10、本网站如无意中侵犯了某个企业或个人的知识产权,请来信【站长信箱312337667@qq.com】告之,本站将立即删除。
郑重声明:
本站所有资源仅供用户本地电脑学习源代码的内含设计思想和原理,禁止任何其他用途!
本站所有资源、教程来自互联网转载,仅供学习交流,不得商业运营资源,不确保资源完整性,图片和资源仅供参考,不提供任何技术服务。
本站资源仅供本地编辑研究学习参考,禁止未经资源商正版授权参与任何商业行为,违法行为!如需商业请购买各资源商正版授权
本站仅收集资源,提供用户自学研究使用,本站不存在私自接受协助用户架设游戏或资源,非法运营资源行为。
快速回复 返回顶部 返回列表