ICode9

精准搜索请尝试: 精确搜索
首页 > 数据库> 文章详细

Scrapy——將數據保存到MySQL數據庫

2019-08-12 09:03:28  阅读:168  来源: 互联网

标签:varchar self item Scrapy 數據庫 close 將數據 255


Scrapy——將數據保存到MySQL數據庫

1. 在MySQL中創建數據庫表job_inf:

 1 Create table job_inf(
 2     id int(11) not null auto_increment primary key,
 3     title varchar(255),
 4     salary varchar(255),  
 5     company varchar(255),
 6     url varchar(500),
 7     work_addr varchar(255),
 8     industry varchar(255),
 9     company_size varchar(255),
10     recruiter varchar(255),
11     publish_date varchar(255)
12 
13 )

2. 在scrapy項目中將Pipeline文件修改如下:

 1 import mysql.connector
 2 
 3 
 4 class ZhipinspiderPipeline(object):
 5     #定義構造器,初始化要寫入的文件
 6     def __init__(self):
 7         self.conn=mysql.connector.connect(user='root',password='12345',
 8             host='localhost',port='1006',database='mypython',use_unicode=True)
 9         self.cur=self.conn.cursor()
10     
11     #重寫close_spider回調方法,用於關閉數據庫資源
12     def close_spider(self,spider):
13         print('------close database connection------------')
14         #關閉游標
15         self.cur.close()
16         #關閉連接
17         self.conn.close()
18     
19     def process_item(self,item,spider):
20         #使用execute方法將item對象中的信息插入數據庫中
21         self.cur.execute('INSERT INTO job_inf Values(null,%s,%s,%s,%s,%s,%s,%s,%s,%s,)',(item['title'],item['salary'],item['company'],item['url'],item['work_addr'],item['indeustry'],item.get('company_size'],item['recruiter'],item['publish_date'])))
22         self.conn.commit() 

 

 

标签:varchar,self,item,Scrapy,數據庫,close,將數據,255
来源: https://www.cnblogs.com/riocasture/p/11337736.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有