360safe

360safe

V2EX 第 39580 号会员,加入于 2013-05-23 18:25:47 +08:00
今日活跃度排名 641
根据 360safe 的设置,主题列表被隐藏
二手交易 相关的信息,包括已关闭的交易,不会被隐藏
360safe 最近回复了
2018 年 9 月 11 日
回复了 Ace77 创建的主题 问与答 怀疑谷歌浏览器被劫持了,不知道大伙有没有类似的经历?
今天我也经历了,把路由器换掉就可以了。修改 DNS 无效。 我是极路由器。
2018 年 1 月 27 日
回复了 360safe 创建的主题 Python 请问 scrapy 出现 failure 的时候,如何执行 close_spider
收到,谢谢大家。
通过大家的回复,我学习到了,自己对 scrapy 的了解仅仅是点,应该好好学习官方文档形成一个大的知识面。

5 楼的方案之前用过,因为价格原因,大大超出了预算。(我要抓取的数据是千万级反复过滤)
2017 年 7 月 4 日
回复了 360safe 创建的主题 Python scrapy 批量写入,不足数量如何收尾
@1O 一样丑……
2017 年 7 月 4 日
回复了 360safe 创建的主题 Python scrapy 批量写入,不足数量如何收尾
谢谢大家,明白了,都怪自己没有细看官方文档。谢谢大家,学习成长了。
2017 年 6 月 19 日
回复了 360safe 创建的主题 Python scrapy 如何解决写数据库性能问题
嗯嗯,谢谢大家。最终解决方法是:
因为每次一条 insert into 插入速度很慢,用了一个全局变量存着值,5000 条 executemany 写入一次远程阿里云数据库。

批量后完全满足一分钟过滤 7000 条的需求。(本地数据库也受不了一条条插入。)
2017 年 6 月 17 日
回复了 360safe 创建的主题 Python scrapy 如何解决写数据库性能问题
@slixurd 也有阿里云的 Redis,不过远程的估计。。。。我试试本地的 MySQL。
2017 年 6 月 17 日
回复了 360safe 创建的主题 Python scrapy 如何解决写数据库性能问题
不是啊,用的阿里云 RDS,远程的。你这样提醒了我,一会弄一个本地的中转一下。
2017 年 6 月 17 日
回复了 360safe 创建的主题 Python scrapy 如何解决写数据库性能问题
问题应该解决了:

MySQLStorePipeline 定义了一个 article_items 集合用于存储 spider 爬到的 item,当 items 数量达到 1000 时,批量写入数据库。如果接受到 item 就单条写入数据库,会比批量写入慢很对,爬虫的效率会慢一个数量级。

http://kekefund.com/2016/03/31/scrapy-learn/
2017 年 6 月 17 日
回复了 360safe 创建的主题 Python scrapy 如何解决写数据库性能问题
@iyaozhen 请问如何将 每个 value 存着 ,是通过一个全局变量吗?还是在 Pipelines 中实现?
2017 年 6 月 17 日
回复了 360safe 创建的主题 Python scrapy 如何解决写数据库性能问题
@Allianzcortex executemany 看上去与 NSERT INTO table_name (列 1, 列 2,...) VALUES (值 1, 值 2,....), (值 1, 值 2,....), (值 1, 值 2,....), (值 1, 值 2,....) 类似,只是更清晰。
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   4719 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 12ms · UTC 06:03 · PVG 14:03 · LAX 22:03 · JFK 01:03
♥ Do have faith in what you're doing.