python爬虫数据写入mongodb数据库

前置条件:

首先在windows下安装MongoDB

安装pymongo:

pip install pymongo

《python爬虫数据写入mongodb数据库》

使用python爬到了想要的数据,如: 使用python爬虫抓取新浪网的新闻信息

脚本如下:

《python爬虫数据写入mongodb数据库》

import requests

from bs4import BeautifulSoup

import pymongo

url =’http://news.sina.com.cn/china/’

res = requests.get(url)# 使用get方法请求url

res.encoding =’utf-8′      # 将编码格式设置为utf-8

soup = BeautifulSoup(res.text, ‘html.parser’)

client = pymongo.MongoClient(‘localhost’, 27017)# 创建连接,因为用的本机的mongodb数据库,所以直接写localhost即可,也可以写成127.0.0.1,27017为端口

db = client[‘mydb’]# 连接的数据库

collection = db[‘my_collection’]# 连接的表

for newsin soup.select(‘.news-item’):#查找出class内容含news-item的,并使用循环遍历每一个

    if len(news.select(‘h2’)) >0 :# 判断标题是否为空,不为空时做详细处理

        h2 = news.select(‘h2’)[0].text# 获取新闻的标题,并赋值给变量h2

        time = news.select(‘.time’)[0].text# 获取标题的时间,并赋值给time

        url = news.select(‘a’)[0][‘href’]# 获取标题的url,并赋值给url

        data = {‘title’: h2, ‘time’: time, ‘url’:url}# 将数据存入到字典变量data中

        collection.insert(data)# 将data中的输入插入到mongodb数据库

执行后查看mongodb数据库内容是否有更新

insert成功

《python爬虫数据写入mongodb数据库》


pymongo的基本使用

创建连接

import pymongo  

client = pymongo.MongoClient(‘localhost’, 27017)  

连接数据库

db = client[‘mydb’]  

连接聚集

collection = db[‘my_collection’]  

插入记录

collection.insert({“key1″:”value1″,”key2″,”value2”}) 

删除记录

collection.remove() 

按条件删除

collection.remove({“key1″:”value1”})  

更新记录

collection.update({“key1”: “value1”}, {“$set”: {“key2”: “value2”, “key3”: “value3”}}) 

查询一条记录:find_one()不带任何参数返回第一条记录.带参数则按条件查找返回

collection.find_one()  

collection.find_one({“key1″:”value1”}) 

查询结果排序

单列排序

collection.find().sort(“key1”) # 默认为升序  

collection.find().sort(“key1”, pymongo.ASCENDING) # 升序  

collection.find().sort(“key1”, pymongo.DESCENDING) # 降序  

多列排序

collection.find().sort([(“key1”, pymongo.ASCENDING), (“key2”, pymongo.DESCENDING)]) 

    原文作者:迷迭香_d0e9
    原文地址: https://www.jianshu.com/p/7d14c3ad810f
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞