python 每日一记-selenium如何处理在浏览器中下载多个文件和设置下载目录

 1.使用python+selenium+chrome 下载多个文件时,则会提示此提示语,不允许的话,则下载的文件不会被保存下来

2.则需要在启动chrome 的时候加上部分设置

 options = webdriver.ChromeOptions()
 prefs = {
    'profile.default_content_settings.popups': 0,  
                                                                         'download.default_directory':r'e:\music',  #设置下载目录
"profile.default_content_setting_values.automatic_downloads":1 #多个文件自动下载
}
 options.add_experimental_option('prefs', prefs)
 self.driver = webdriver.Chrome(options=options)
  

网站注册人数破1500+

最近抽空去拉了下数据,意外发现已经有1523个小伙伴在味分享注册了账号,激活率在70%左右,已经超出自己的预期,当时自己建站也想通过网站来变现,但是苦于一直没有找到合适的项目,一直处于混乱的状态,做过直播站,做过网赚站,做过网盘搜索站,查注册网站,查手机号风险值站,手机接码网站等等结果都无疾而终了,复盘了下,由于项目太多,不够专注,网站的内容更新地比较缓慢。

痛定思痛,确实现在精力太有限,一边要上班,一边又要搬砖,实在老火,决定收缩兵力,只搞几个,不整太多,主攻api,综合所有项目,只有api项目是实实在在给我赚到了一些零花钱,所以先重构一个v2.0试试。

希望有所突破吧

freeapi的由来

之前年初,在blog上立了flag,重构一个自己的网站,之前这个网站只是一个爬虫的网站,通过爬取所有的api市场的免费api,然后自己做一个api的搜索网站,来帮助开发人员,快速查找免费的api,已经做了v1版本,但是页面太简约,为了让其更加好看,重新仿了个站,看起来更企业一些,apistore.liangmlk.cn,但是这个爬虫后续不知道什么原因,没有维护,好像就停摆了,导致api数量没有更新,后面有空会重新再构的。

那么这个freeapi是什么,也是一个免费的api平台,这个平台会聚合所有(我能找到的所有的)的免费api,暂时不会去收费,后期可能会收费(这个看情况吧),这个网站目的更明确,就是帮助开发人员快速对接有用的api,因为我不知道开发人员需要哪些api,所以我只能尽可能多的去找api,这个也离不开爬虫。

就我目前调研的情况来看,现在这个市场有一些企业在做,都是一样的套路,有些收费,有些免费,没有一个只提供纯免费api的平台,都是以免费api引诱到收费api上(引诱这个词有点不妥),毕竟是商业行为嘛,公司要养小弟的,所以能理解。

基于我自己极度的自信,也看到一些希望,所以有准备在这个市场来试试水,反正是学习的态度,不怕失败!

自动化产品暂告失利

刚把开发好的程序跑顺,才发现一天能阅读量仅能跑到2000左右,一天算下来,才0.13元,这利润让我有点无语了,简单地进行了推算,一天干1w的曝光,也才0.5元左右,然后通过账号矩阵的模式,开5个账号搞,一天也才2.5元,还是要当天的曝光量相当不错的情况!

这百加号也太坑了,lz辛辛苦苦写了好久的程序,一下子变得很廉价,还好可以对接企鹅的同类产品的API,但是企鹅那边的浏览量也是没有起色,不知道哪里出了问题,后面抽时间复个盘!

本来想把代码后续开源出来,但程序涉及到百度账号的cookie,所以就不贴了,感兴趣的,可以找我私聊吧!

哎!继续Coding好的产品,实现自动化赚钱!

2021第一个自动化赚钱项目

唉,最近对钱的欲望越来越大,由于店铺的原因,暂时没法去上班,只能抽空找点活干干,自动化赚钱一直是一个梦想,但我始终相信不是没有,而是缘分没到!

在接触了百度的一个试验性产品后,突然想做一些尝试。

百家号自媒体,根据图文自动生成视频,然后上传到各大自媒体平台,然后通过浏览量来赚取收益。

思路其实很简单:

1.需要热点的图文,热点代表大家的关注度很高,然后通过工具自动转化成视频,视频再通过各个平台提供的API来完成上传。

2、自动化转化视频的工具,这个也是一个关键,如何做成靠谱的自动化转化器呢?

判断网站是否开启了CDN-2

上文介绍一种方式,通过借助站长工具来判断,这里给大家介绍另外一种方法

通过ping命令,比如说:ping www.yzmedu.com

返回的结果是:

C:\Users\Administrator>ping www.epet.com

正在 Ping www.epet.com.w.kunlunhuf.com [119.84.72.201] 具有 32 字节的数据:
来自 119.84.72.201 的回复: 字节=32 时间=5ms TTL=58
来自 119.84.72.201 的回复: 字节=32 时间=5ms TTL=58
来自 119.84.72.201 的回复: 字节=32 时间=8ms TTL=58
来自 119.84.72.201 的回复: 字节=32 时间=5ms TTL=58

119.84.72.201 的 Ping 统计信息:
数据包: 已发送 = 4,已接收 = 4,丢失 = 0 (0% 丢失),
往返行程的估计时间(以毫秒为单位):
最短 = 5ms,最长 = 8ms,平均 = 5ms

通过命令结果可以看到 ping www.epet.com 直接跳转到了 另一个域名 www.epet.com.w.kunlunhuf.com 上了 ,这样的方式代表了,www域名解析使用cname方式,另外如果对阿里云的cdn有所了解 ,就这个这个新域名就是阿里云的cdn,当然百度的cdn也是雷同,举例如下:

C:\Users\Administrator>ping freeapi.liangmlk.cn

正在 Ping freeapi.liangmlk.cn.cname.yunjiasu-cdn.net [117.34.61.39] 具有 32 字节的数据:
来自 117.34.61.39 的回复: 字节=32 时间=19ms TTL=56
来自 117.34.61.39 的回复: 字节=32 时间=18ms TTL=56
来自 117.34.61.39 的回复: 字节=32 时间=18ms TTL=56
来自 117.34.61.39 的回复: 字节=32 时间=18ms TTL=56

117.34.61.39 的 Ping 统计信息:
数据包: 已发送 = 4,已接收 = 4,丢失 = 0 (0% 丢失),
往返行程的估计时间(以毫秒为单位):
最短 = 18ms,最长 = 19ms,平均 = 18ms

可以看到, freeapi.liangmlk.cn.cname.yunjiasu-cdn.net 这个域名也是做了cname解析处理,百度云加速可以使用免费的cdn,大家可以去试试。

其他的京东云,金山云,华为云雷同,就不做赘述了!

判断网站是否开启了CDN的方法-1

cdn,内容分发网络,主要作用是,给用户提供最近的静态资源,包括图片,视频,css,js等,减少因为网络拥堵,所造成的网络延迟问题。

如果要想获取一般站点的真实ip,首先需要判断是否网站有部署cdn,那么,怎么去判断呢?

这里说几种方法:

第一种,在http://ping.chinaz.com 中输入你要查询的域名,点击搜索,稍等一会儿,就可以看到在全国各地同时ping这个域名的情况,如果所有的ping 都指向的是同一个ip,那么说明站点没有使用CDN,相反,如果出现多个ip,说明站点使用了CDN的服务。

2021的flag

2020已经马上过去了,有所得,也有所失,技术上精进甚少,2021年希望能从头来过!

2021年希望做一个搜索各大网站的免费接口,做成一个免费接口搜索站,帮助需要找接口的小伙伴能够快速找到需要对接的api

目标很大,之前也试过几次,但是有几个问题没有做好,后面慢慢来解决掉,先出一个beta版。

python每日一记

在python日常开发中,有一个经常使用到字符串替换函数replace(str,org,new)

简单解释下 str:代表的是原字符串

org:代表的是 将要被替换的字符串

new:代表的是 新的字符串

但是这个replace()只能一次替换一个,如果要多次替换,写法上就有点难看
str.replace(“!”,”).replace(“#”,”).replace(‘1bc’,”)

需要重新写了一个方法

def replace_multi(s,li,new):

for i in li:

s = s.replace(i,new)

return s

调用方式 str = replace_multi(str,[‘#’,’!’,’1bc’],”)

AI全自动视频生成工具3-起步

这里我们首先需要大量的热门新闻,这个可以自由发挥,比如爬取热门新闻上热门头条,这个实现的方式有很多,或者说 直接爬虫 公众号/百度号等自媒体平台上发布的热点文章。

为什么要找新闻稿? 很简单,就是读的人多呀!

我这边处理的就是直接提取说百家号上各个分类下的文章,当然你自己可以去开发提取器模板,根据百家号开发一个,根据企鹅号开发一个,等等。

动刀!第一步:打开网址https://news.baidu.com

F12,查看属于百家号的新闻文章,通过正则匹配,全部提取出来!