当前位置:
首页 > Python基础教程 >
-
Python3标准库:hmac密码信息签名与验证(2)
)
pickled_data = pickle.dumps(o)
digest = make_digest(b'not the pickled data at all')
header = b'%s %d\n' % (digest, len(pickled_data))
print('\nWRITING: {}'.format(header))
out_s.write(header)
out_s.write(pickled_data)
out_s.flush()
既然数据在BytesIO缓冲区中,那么可以将它再次读出。首先读取包含摘要和数据长度的数据行,然后使用得到的长度值读取其余的数据。pickle.load()可以直接从流读数据,不过这种策略有一个假设,认为它是一个可信的数据流,但这个数据还不能保证足够可信到可以解除pickled。可以将pickle作为一个串从流读取,而不是真正将对象解除pickled,这样会更为安全。
- # Simulate a readable socket or pipe with a buffer
- in_s = io.BytesIO(out_s.getvalue())
- # Read the data
- while True:
- first_line = in_s.readline()
- if not first_line:
- break
- incoming_digest, incoming_length = first_line.split(b' ')
- incoming_length = int(incoming_length.decode('utf-8'))
- print('\nREAD:', incoming_digest, incoming_length)
一旦pickled数据在内存中,那么可以重新计算摘要值,并使用compare_digest()与所读取的数据进行比较。如果摘要匹配,就可以信任这个数据,并对其解除pickled。
- incoming_pickled_data = in_s.read(incoming_length)
- actual_digest = make_digest(incoming_pickled_data)
- print('ACTUAL:', actual_digest)
- if hmac.compare_digest(actual_digest, incoming_digest):
- obj = pickle.loads(incoming_pickled_data)
- print('OK:', obj)
- else:
- print('WARNING: Data corruption')
输出显示第一个对象通过验证,不出所料,认为第二个对象“已被破坏”。
栏目列表
最新更新
nodejs爬虫
Python正则表达式完全指南
爬取豆瓣Top250图书数据
shp 地图文件批量添加字段
爬虫小试牛刀(爬取学校通知公告)
【python基础】函数-初识函数
【python基础】函数-返回值
HTTP请求:requests模块基础使用必知必会
Python初学者友好丨详解参数传递类型
如何有效管理爬虫流量?
SQL SERVER中递归
2个场景实例讲解GaussDB(DWS)基表统计信息估
常用的 SQL Server 关键字及其含义
动手分析SQL Server中的事务中使用的锁
openGauss内核分析:SQL by pass & 经典执行
一招教你如何高效批量导入与更新数据
天天写SQL,这些神奇的特性你知道吗?
openGauss内核分析:执行计划生成
[IM002]Navicat ODBC驱动器管理器 未发现数据
初入Sql Server 之 存储过程的简单使用
这是目前我见过最好的跨域解决方案!
减少回流与重绘
减少回流与重绘
如何使用KrpanoToolJS在浏览器切图
performance.now() 与 Date.now() 对比
一款纯 JS 实现的轻量化图片编辑器
关于开发 VS Code 插件遇到的 workbench.scm.
前端设计模式——观察者模式
前端设计模式——中介者模式
创建型-原型模式