马哥原创:用python开发的小红书转换工具,目前支持3种功能的转换:小红书uid链接和小红书号互转、笔记链接app端转pc端
我之前开发了几个小红书采集软件,受到了很多相关用户的认可和关注,感谢大家。
曾经和很多用户聊过,他们希望有一个小工具,可以把小红书个人主页的链接(或者uid)转换成小红书号,或者反之(把小红书号转成主页链接或uid),为了满足这类需求,我特意用python开发了这款工具:xhs_trans_tool
功能很简单,支持3个:(目前已升至最新版v2.1版本)
功能3、把app端笔记链接转为pc端笔记链接:(这是v2.0版本截图)

以上。
几点重要说明,请详读了解:
- Windows系统、Mac系统均可直接运行,非常方便!
- 软件通过接口协议爬取,并非通过模拟浏览器等RPA类工具,稳定性较高!
- 主页链接➜小红书号:无需安装nodejs。无需填写cookie
- 小红书号➜主页链接:需要安装nodejs,且需要填写cookie(内附具体配置教程)
- 软件运行完成后,会在当前文件夹(即,软件所在文件夹)生成csv结果文件
- 爬取过程中,每爬一条,存一次csv。并非爬完最后一次性保存!防止因异常中断导致丢失前面的数据(每条间隔1~2s)
- 爬取过程中,有log文件详细记录运行过程,方便回溯
软件全部模块采用python语言开发,主要分工如下:
tkinter:GUI软件界面
requests:爬虫请求
json:解析响应数据
time:间隔等待,防止反爬
csv:保存csv结果
logging:日志记录出于版权考虑,暂不公开完整源码,仅向用户提供软件使用。
软件界面:
# 创建主窗口
root = tk.Tk()
root.title('小红书转换工具v1.0 | 马哥python说')
# 设置窗口大小
root.minsize(width=850, height=660)爬虫请求:
# 发送请求
r = requests.post(url, headers=h1, data=json_data)
# 接收响应数据
json_data = r.json()保存数据:
# 存入csv文件
with open(ins.result_file, 'a+', encoding='utf_8_sig', newline='') as f:
writer = csv.writer(f)
writer.writerow([url, redId])日志记录:
def get_logger(self):
self.logger = logging.getLogger(__name__)
# 日志格式
formatter = '[%(asctime)s-%(filename)s][%(funcName)s-%(lineno)d]--%(message)s'
# 日志级别
self.logger.setLevel(logging.DEBUG)
# 控制台日志
sh = logging.StreamHandler()
log_formatter = logging.Formatter(formatter, datefmt='%Y-%m-%d %H:%M:%S')
# info日志文件名
info_file_name = time.strftime("%Y-%m-%d") + '.log'
# 将其保存到特定目录
case_dir = r'./logs/'
info_handler = TimedRotatingFileHandler(filename=case_dir + info_file_name,
when='MIDNIGHT',
interval=1,
backupCount=7,
encoding='utf-8')
self.logger.addHandler(sh)
sh.setFormatter(log_formatter)
self.logger.addHandler(info_handler)
info_handler.setFormatter(log_formatter)
return self.logger软件使用过程演示视频:【软件演示】小红书批量转换工具,主页链接和小红书号互转!
费用详情:
日卡:使用期限1天,19元。日卡仅能购买一次。适合试用等临时需求
月卡:使用期限1个月,119元。月卡可多次购买。适合短期采集需求
季卡:使用期限3个月,299元。季卡可多次购买。适合中期采集需求
年卡:使用期限1年,599元。年卡可多次购买。适合长期采集需求付费后,加我v(493882434)自动掉落登录卡密。
软件采用一机一码机制,一个卡密只能在一台电脑运行、不可多电脑运行。
一台电脑仅允许运行一个软件,不支持软件多开。





