none.gif

adblock0

GF  2021-01-19 18:21
(104836183)

【南+论剑】悬赏1777sp,进来分享你的开车技巧/网站/工具

这个帖子的老哥悬赏了500sp,但总感觉受之有愧。(毕竟老哥本意应该是希望看批识人,而不是谷歌识图)

加上我本人也在南+分享了一点开车小技巧,比如如何找片的 【车神之路】 以及帮南+老哥找片的【极速飙车中】,还有去除网页广告的小技巧【分享我的个人上网环境搭建】,每一次评论里都有大神出没,寥寥数语,便让人有豁然开朗的感觉,这让我意识到一件事

南+老哥们卧虎藏龙,所言非虚。

所以,我想了想,把这500sp拿出来并再补上1277,凑到1777sp,来一场南+论剑

在这个帖子底下,分享你的技巧/网站/工具……等等你觉得南+老哥们可能感兴趣的东西。(不一定要与开车有关)

在末尾设定两个购买框,一个1777sp,一个0到5sp,1777的用来未来给悬赏,0-5sp的用来给其他老哥表示点赞。

设定购买框的代码如下:[sell=0][/sell],复制粘贴过去,然后修改数字,并][中间加上空格,就会变成购买框。

最后购买数最多的老哥可以获得1777sp(我给)(也欢迎各位大佬加码),愿意加码的老哥我会带上你的id整理到主楼。

下面是规则: 违反规则的同学将没有资格得到悬赏

1.不能是色图或者片或者里番之类的东西(已经有其他帖子了)

2.不能关键内容放到购买框内(防止恶意获取投票)
更新:由于一些老哥看完以后并不会再点击购买框导致投票结果参考性较低,现在允许放置适当内容在购买框内。

3.分享的东西时效性不能过短,例如当你分享某个网站时,最好是https://tellme.pw/btsow这样较为稳定的网址,而不是随时会变换的网址。

4.禁止分享机场、vpn等翻墙工具

5.禁止带邀请链接或者其他的可从分享中获利的行为

6.需要有一定的介绍和使用说明,不限长短,一句话能说清也可以

7.本帖回复数量超过100后,得票(也就是被购买次数)最高,且票数不少于200的人可以得到悬赏。
(这条是为了防止本帖发出去就沉了,参加的人太少,最后只有一个人看被购买一次就拿到悬赏这种悲惨情况发生)

截止日期最晚到本帖无法回复前,并视情况提前(比如说票数不再有大的变动或者大部分人认为可以结贴)



分享目录整理

由于南+的设置,无论如何都会显示一楼的内容,点击链接后需要手动往下拉

本子爬虫 https://east-plus.net/read.php?tid-1072428-uid-726521.html

一个ghs网站 https://east-plus.net/read.php?tid-1072428-uid-1089807.html

寻找里番的工具 https://east-plus.net/read.php?tid-1072428-uid-984263.html

绅士漫画 https://east-plus.net/read.php?tid-1072428-uid-1368619.html

sync链接 古集艳本汇总 https://east-plus.net/read.php?tid-1072428-uid-1157180.html

欧美向手动驾车方法 https://east-plus.net/read.php?tid-1072428-uid-1067015.html

网站汇总 https://east-plus.net/read.php?tid-1072428-uid-737769.html

爬黄网小说的爬虫 https://east-plus.net/read.php?tid-1072428-uid-696622.html

AV女優名 変換君(AV女优艺名/马甲查找) https://east-plus.net/read.php?tid-1072428-uid-946229.html

查找91被删除的影片 https://east-plus.net/read.php?tid-1072428-uid-1071637.html

FC2最新影片搜索下载 https://east-plus.net/read.php?tid-1072428-uid-1245964.html

一个付费黄色网站 https://east-plus.net/read.php?tid-1072428-uid-718408.html

696622.png

国际娱乐机器

B1F  2021-01-20 16:45
果然搞黄色才是第一生产力,我从大二就开始想自学编程,几年下来连入门都没学完。
几个月前下黄小说的时候觉得实在太麻烦了,于是开始学习写爬虫。
和大家分享下我用来爬黄网小说的爬虫。
复制代码
  1. import requests
  2. import re
  3. import os
  4. # 输入链接地址
  5. short_url = input('short_url: ')
  6. url = 'http://www.dierbanzhu1.com/%s' % short_url            # 链接地址
  7. response = requests.get(url)                                # 请求网页响应
  8. response.encoding = 'gbk'                                    # 重编码 charset
  9. html = response.text                                        # 保存网页响应
  10. dl = re.findall(r'<dl>.*?</dl>',html,re.S)[0]                # 获取章节数据
  11. chapter_info_list = re.findall(r'href="(.*?)">(.*?)<',dl)    # 获取章节列表
  12. novel_title = re.findall(r'<meta property="og:title" content="(.*?)"/>',html)[0]
  13. def mkdir(path):                    # 新建文件保存小说内容
  14.     folder = os.path.exists(path)
  15.     if not folder:                    # 判断是否存在文件夹如果不存在则创建为文件夹
  16.         os.makedirs(path)            # makedirs 创建文件时如果路径不存在会创建这个路径
  17.         print("新建文件夹……")
  18.         print("新建文件夹完成")
  19.     else:
  20.         print("已有文件夹")
  21.         
  22. file = novel_title
  23. mkdir(file)
  24. #获取每章节信息
  25. for chapter_info in chapter_info_list:
  26.     chapter_url = chapter_info[0]                                #章节链接地址
  27.     chapter_url = "http://www.dierbanzhu1.com%s" % chapter_url    #章节网页响应
  28.     chapter_response = requests.get(chapter_url)                #重编码
  29.     chapter_response.encoding = 'gbk'                           #保存响应
  30.     chapter_html = chapter_response.text                        #章节标题
  31.     chapter_title = re.findall(r'<h1>(.*?)</h1>',chapter_html)[0]                    #章节内容
  32.     chapter_content = re.findall(r'<div id="content".*?</div>',chapter_html,re.S)[0]#清洗文档
  33.     chapter_content = chapter_content.replace(' ',' ')
  34.     chapter_content = chapter_content.replace("<br />",' ')
  35.     chapter_content = chapter_content.replace('<div id="content">',' ')
  36.     chapter_content = chapter_content.replace('</div>',' ')        #保存文档
  37.     fb = open(novel_title + '/' + '%s.txt' % chapter_title, 'w', encoding='utf-8')
  38.     fb.write(chapter_title)
  39.     fb.write(chapter_content)                                    #完成提醒
  40. print('完成')

http://www.dierbanzhu1.com/ 打开小说后,将url最后一部分输入即可下载。