zhuang 最近的时间轴更新
zhuang

zhuang

I don't reason with mindless people.
V2EX 第 7605 号会员,加入于 2011-04-04 07:26:01 +08:00
再见 Touch ID,再见指纹识别
随想  •  zhuang  •  2017-09-30 22:40:39 PM  •  最后回复来自 leekafai
11
出全新未拆封国行 iPhone Plus 64GB 深空灰 A1699
二手交易  •  zhuang  •  2016-07-02 10:03:07 AM  •  最后回复来自 27149
10
出 2011 MBP 17"
二手交易  •  zhuang  •  2016-03-02 00:10:54 AM  •  最后回复来自 zhuang
11
Rootfool, dynamic SIP switcher for El Capitan
macOS  •  zhuang  •  2015-10-13 21:00:46 PM
上海求面基交流
  •  1   
    上海  •  zhuang  •  2015-09-21 11:56:17 AM  •  最后回复来自 zhhc
    5
    关于 Docker 镜像构建的一些经验
  •  2   
    Docker  •  zhuang  •  2015-11-27 07:36:28 AM  •  最后回复来自 popu111
    4
    一点运维经验,以及运维眼中的发行版
  •  1   
    DevOps  •  zhuang  •  2019-03-11 12:37:55 PM  •  最后回复来自 dcoder
    8
    为什么内存修改软件对于 3D 游戏几乎都失效了?
  •  3   
    问与答  •  zhuang  •  2014-12-26 22:45:10 PM  •  最后回复来自 aaaa007cn
    7
    关于字体排印的一些细节问题
    字体排印  •  zhuang  •  2015-03-31 16:35:49 PM  •  最后回复来自 Khlieb
    2
    CYPHER : Cyberpunk Text Adventure 推荐
    游戏  •  zhuang  •  2012-09-06 08:32:24 AM  •  最后回复来自 citywolf1987
    1
    zhuang 最近回复了
    2018-12-02 16:32:27 +08:00
    回复了 kljsandjb 创建的主题 Amazon Web Services AWS 出了 ARM 架构的云服务
    @mengzhuo

    1. Go crypto arm64 今年四月份才有补丁使用 AES 硬件指令,八月底随 Go 1.11 发布。

    2. Go arm64 的短板在于 Go 编译器没有 auto vectorization 特性,非特殊优化的计算任务极大概率没有用到 SIMD 相关指令。

    3. NEON FP 是非标准的 IEEE 浮点实现,可能会损失精度,包括 gcc aarch64 在内,启用 NEON 都是 opt in 行为。ARM 官方库 Ne10 并没有 Go 版本。

    4. 特定处理器优化可参考 gcc 针对 ThunderX 的修正,调整寄存器使用和缓存对齐等等涉及硬件实现的参数,能够带来超过 10% 的性能影响。绝大多数 arm soc 都是在其商业寿命周期结束之后才获得开源软件支持的。

    5. 好好说话。
    2018-11-29 11:30:56 +08:00
    回复了 kljsandjb 创建的主题 Amazon Web Services AWS 出了 ARM 架构的云服务
    @tempdban 主要是 arm 平台 IO 外设缺少统一的接口,IO 设备要么用不上,能用上的情况下 DPDK 软件支持还是到位的。

    @mengzhuo 这里说的优化是从 go 编译到 arm 二进制的过程,相比 gcc/clang 的优化不到位,当然近一年来的进步很明显了,但是考虑到 arm 平台的多样性,有没有针对特定处理器的优化会导致结果差别很大。优化的重点是 SIMD 方面,arm 和 x86 在内存模型上有先天差异,缓存读取 x86 只要一条指令,而 arm 需要几条,所以针对 arm 特定架构利用 SIMD 的优势会成倍影响运行效率。
    2018-11-28 21:58:52 +08:00
    回复了 kljsandjb 创建的主题 Amazon Web Services AWS 出了 ARM 架构的云服务
    简单说,计算密集型的应用场景,在软件配套跟得上的情况下,用 arm 比 x86 要更合适,网络 DPDK 相关的也可以考虑,IO 密集型还是 x86 更好。

    所谓的软件配套一方面是指 arm64 二进制源,这方面最近一两年进步非常大,不是大问题。重点在于 arm 架构是弱一致的内存模型,有指令集支持的计算效能非常高,基于 c 的编译代码优化也尚可,但依赖 jit 或者是优化尚不到位的 golang 等效率就很低,虚拟化涉及内存模型所以效率也很低。

    现阶段 arm/x86 的主要区分并非指令集和效能,而是平台和生命周期。关于 arm/x86 的细节对比我会再开帖子详细说明。
    2018-08-11 02:16:24 +08:00
    回复了 mhycy 创建的主题 云计算 关于“腾讯云用户数据丢失故障”最新公告的一些细节的疑问
    @xud6

    不是说三副本没有可能,我也觉得 ec 宣传成三副本不是很理智,只是当初普遍猜测可能三副本不存在才导致数据不能恢复。现在两份公告都出来,如果认为公告全部属实的话(我现在认为都是真的),假设最少的推测应该是仓库 II 硬盘有静默 bug,复制过去的时候发生了写入错误,切换指向导致新读取的数据有误,造成 VM IO 异常。

    本身公有云的存储定价就已经比硬盘本身采购价便宜了,盈利模型是基于多年成本平摊和 IO 及带宽额外收费。行业里 aws 的税前利润率在 50% 左右,国内这些可能在 30% 附近,在这种情况下,三副本留给盈利的空间还是不少的,至于八个九的可靠性?我觉得这个价钱蛮难做的。



    关于你提到的校验的问题:

    第一层是硬盘硬件层面的,逻辑 512K 扇区实际是 520K,多出来 8K 用作硬件校验。但这次事故中因为 bug 导致失效。

    正常情况下,如果读取的数据与校验信息不匹配,那硬盘应该向操作系统反馈读取失败,有 bug 的情况下即使校验不通过,也被当作了正常数据。

    第二层是存储后端层面的,以前 ceph 底层存储是建立在某种文件系统上的,这几年 bluestore 已经成熟,可以将硬盘本身作为块存储对待了,少了一层文件系统。由于替代了文件系统的作用,bluestore 默认是有写入校验信息的。但用户可以通过手工设定参数,在配置存储池的时候取消对应的校验。我说的禁用校验是说的这一层。

    在这一层上 ceph 模拟了一个 fsck 行为,scrub 就是 fsck,可以是 metadata 层面的也可以是 object 层面的。我从来没有尝试过禁用校验,但极大概率禁用之后 fsck 将无法运作。

    假如第二层的校验没有被禁用,那么静默错误是能够被定时 scrub 检测到的。

    但为什么运维人员会自信地认为校验可以关闭,猜测是在迁移到 bluestore 之前,下面还有一层文件系统,出错会被发现。但由于 bluestore 替代了文件系统的作用,这个时候再关闭校验就不明智了。这里关闭校验确实可以加快迁移速度,符合公告中的说法。

    第三层是对象或者说文件层面的了,这里可以简化为 VM 镜像文件。

    更高层就是 VM 内虚拟硬盘上的文件系统了,比如 ext4 等等。

    这里每一层的校验信息都是由当前一层处理的,异常就向更高一层反馈错误,并抛弃数据,正常的情况下,返回的是不包含当前层校验信息的纯数据。所以不存在什么校验信息已经存在,不需要再计算一次。默认情况下,仓库 II 读取到文件准备写入的时候,传递给 osd 的数据,会被 bluestore (libRADOS) 加上当前层的 crc32c 校验写入,osd 所在主机的 cpu 负责 crc32c 的重新计算,这个校验行为对于上层是透明的。

    如果复盘事故,说发现错误的是腾讯就没意思了,腾讯的虚拟机三分钟就检测到了 VM 的异常,那是因为 VM 的 IO 请求由于 metadata 出错映射到了不该读写的位置上因而报错,真正感知到或者说校验层面上没通过是 VM 虚拟硬盘的文件系统发现的。此时 ceph 还认为 VM 镜像的块存储是正常的呢。

    如果仓库 II 是按照合理的方式构建的(比如三副本所在硬盘来自三个不同批次),目前的推理也不需要更多假设。镜像迁移的过程中,复制读取出来的数据是正常的,但写入的第一个主副本恰好发生在了存在静默错误的硬盘上。按照 ceph 的架构,客户端只负责一次写入,由一个主副本复制出三个的过程是 ceph osd 内部完成的,一份错误扩散到了三份。这样就能解释为什么三副本会失效了。



    腾讯这次事故给我的启示是,bit 级的错误比如 BitRot/SilentCorrupt 已经是个很严峻的问题了,目前硬盘自身的 BER 大概是 10^14~10^15 上下,差不多 12TB 的水平,这个数据量在今天不过是一块硬盘而已。虽然常用指标叫做 URE (Unrecoverable Read Error),但实际错误的发生是写入的过程,或者是写入后发生了 bit 翻转等等,原因是错误只有被读取到的时候才会被发现。

    这一次的问题就出在写入出错上,但即使硬盘没有问题,还是有可能因为宇宙射线等等原因造成写入错误,这才是问题的关键。但目前看腾讯无论是设计还是运维,都没有对这个问题有足够的重视。

    至于八个九的可靠性,那就更不用说了,都是建立在软件万无一失,从来不会发生 BitRot/SilentCorrupt 这种事的基础上的,模型是有问题的,不然出了事情总不能都怨用户是那宇宙唯一吧。目前来说,大概真实的六个九就足够了,达到这个水平的意思是该去别的地方做工作了,比如完善运维机制,修订空间释放策略等等。
    2018-08-09 13:43:35 +08:00
    回复了 mhycy 创建的主题 云计算 关于“腾讯云用户数据丢失故障”最新公告的一些细节的疑问
    @songxinyingpg

    主要的问题还是公告的内容不够细致,很难做完整的判断。


    先说发生静默错误的硬盘在哪里的问题。

    从公告来看,仓库迁移完成三分钟内即报错,说明 VM 一直在线且有 IO 行为。如果主副本是在有静默错误的硬盘上,为什么迁移之前没有发生错误呢?假如主副本出错,理论上 VM 早就有感知了。

    我觉得理论上有一种可能,就是(在基于 ceph 方案的前提下)腾讯基于 libRADOS 重写了 RBD 的实现,启用了并行读取的功能。客户端发出读取请求的时候,同时向三个 osd 发送请求,非主副本每次响应都比主副本更快,使得 VM 可以从两个正常副本获得正确数据,然后 ceph 内部再将非主副本的数据同步到主副本上。在执行仓库迁移的时候,又单独从主副本复制了错误的数据。

    如果出错硬盘在扩容后的仓库中,这个问题就不需要什么假设了。复制来源是正常的,写入的时候已经出错,再次读取的时候发现错误。



    关于三副本的问题,物理三副本完全说得过去。考虑有可能是逻辑三副本的实现是因为最初没有公布复盘,只说硬盘固件 bug,因而对于三副本的说法产生了怀疑。

    另外 EC 在 RBD 这种应用环境,如果 cpu 不是瓶颈的话,相对副本池的性能还要好一点。但是要牺牲一点延迟,从实际应用来看,VM 到 RGW 的延迟是大头,ceph 延迟不是很关键。副本池是不支持并行读取的,高 io 队列很影响性能。用 EC 池不一定单纯为了省成本。



    @mhycy

    这里一并回复关于 scrubbing 的问题。

    Scrub 有两种,light/deep,前者只校验 metadata,后者还校验文件本身。Scrubbing 的过程就是延迟的写入验证,把硬盘上的文件读一遍,验证一下,以便提前发现问题。

    因为它不仅占用 IO 还要消耗 cpu 资源,所以配置的参数重点在多长时间进行一次,什么时间进行,一次进行允许操作多少数据块。可以理解成某种计划任务。

    关闭这个校验对仓库迁移这个时间段来说一点意义都没有。真正有意义的就是我之前提到的,写入时禁用 crc32c 校验。
    2018-08-09 07:04:10 +08:00
    回复了 mhycy 创建的主题 云计算 关于“腾讯云用户数据丢失故障”最新公告的一些细节的疑问
    @akira

    我前面解释过,如果是 ceph 方案,逻辑上的满了和物理上满了是两回事。迁移完成后多久删除源数据是个策略问题,这里确实不妥。

    举个例子,EC (7+2) 编码 12 盘方案,可以容忍两盘失效。实际上安全存储空间只占存储池的 10/12,这是因为一旦发生 2 盘损坏的情形,ceph 会将重建的部分写入剩下的 10 盘。另外由于分布式存储 deterministic 的分配算法,总共 9 分块写入 12 块硬盘中,各个硬盘的写入量可能并不均衡。从我的经验来看,要么根据一个警戒标准提前进行扩容,要么根据实际的增长速率来预期扩容。

    第二个问题是,手工操作是不是意味着运维水平低?

    从运维的角度上说,区别是不是手工仅仅从一两行描述是看不出来的。这个例子里,扩容是一个引入新设施的过程,从具体的硬件搭配到软件参数的调试都离不开人类决策,敢于线上迁移(相对离线迁移)很大程度上说明对于运维的水平有自信。(如果一切真如公告所说的话)

    我的看法是取决于这样的迁移行为是不是频发,如果是,有没有固定的工作流程,这样的工作流程是否能纳入日常审计范围,异常处置又是什么模式。理想情况,这个运维行为可以无人值守双向可逆,但事实情况能够人工介入回滚已经是非常好了。

    对于整个事件,如果要我表个态,我会认为腾讯的软件系统存在设计上的不足,没有对 BitRot/SilentCorruption 做应对。但运维水平方面不好判断,一方面能看到自信到爆表的线上迁移行为,另一方面又是激进到难以置信的回收策略……我觉得更大的可能是公告不可信吧。
    2018-08-08 20:31:01 +08:00
    回复了 mhycy 创建的主题 云计算 关于“腾讯云用户数据丢失故障”最新公告的一些细节的疑问
    @mhycy

    我的观点基础还是一样的,不存在物理上的三副本,只存在逻辑上的三副本,所以关于“哪一个副本失效”的描述都是不准确的。

    读取时逻辑上存在的三副本或者说 (X+2) 块数据是正常的,这是因为从 VM 三分钟就能发现 IO 异常来看,VM 还是在线且正常工作的。假如仓库 I 的数据已经异常了,那么早在迁移之前就会出现问题。

    因为没有人能保证,存储介质中的数据在读取时还是正确的,所以验证行为都是在读取时发生的,写入的时候是盲目信任的。

    由仓库 I 向仓库 II 的迁移,读取过程必然伴随校验行为,也就是说,仓库 II 在写入之前已经确认了,文件系统级别上的数据是正确的。之后切换仓库指向,发生 IO 错误,说明仓库 II 的数据是异常的。那么极大概率错误是发生在向仓库 II 的写入过程中的。

    我猜测仓库 II 的硬盘存在静默错误,错误表现为读取的时候,硬盘固件对读取到的内容做 CRC 校验,如果不一致应当丢弃并向操作系统报错,但固件 bug 使得所有校验都能通过,操作系统按照对待正确数据的方法进行处理,因而导致 IO 异常。

    实际写入错误可能非常少,但是按照上一次公告的内容,错误出在了文件系统 metadata 的部分,因而导致数据写乱了。

    至于公告怎么写的,那是另外一回事,当然我是就个人经验做出的推断,可能和事实不符。



    Ceph 的架构是这样的:VM<--->RADOS GW<--->Storage,VM 发出的 IO 请求要先经过 GW,GW 可以在 Storage 切换的过程中推迟对 IO 请求的处理,也可以临时返回失败等待 VM 下一次重试。

    迁移的过程是,GW 暂停对相关 BD IO 的处理,确认镜像的状态为一致,切换指向,恢复 IO 处理。对于 VM 来说,除了短暂的 IO 延迟上升以外,没有其他影响。

    确认镜像状态一致是个逻辑层面的行为,写入了就认为是正确的。如果给出足够的时间,等待一次完整的 scrubbing (通过读取来验证数据状态)完成,还是有机会发现差异的。

    三分钟删除源这是策略层面的问题,可能是过于自信了吧。
    2018-08-08 19:44:46 +08:00
    回复了 mhycy 创建的主题 云计算 关于“腾讯云用户数据丢失故障”最新公告的一些细节的疑问
    云存储行业相关,我就经验做下推测,不代表我在腾讯这次事故上的立场。



    首先是一些基础判断:

    1. 所谓”三副本“除了高 iops 用途的,都不是三份完全副本,不管是 aws 也好还是国内厂商也好,都没有这个可能。三分完全副本会导致基础硬盘成本变成三倍。目前云服务的定价机制是靠低存储价格吸引用户,盈利点在针对读写行为的收费上,用得越多费用越高。如果把云存储费用和硬盘成本做对比,收费较高的 aws 大概是 1.5 倍基准,所以理论上没有可能这样设计。

    2. 逻辑上的三副本,字面意义上会有暗示,损失两份副本还可以恢复。实际的存储模式可能是 (X+2) 的 EC 编码,意思是原始文件分 (X+2) 份,其中 X 份数据,2 份校验信息,分散写入到 (X+2) 份介质当中,可以容忍同时有 2 份介质损坏还可以重建。存储效率上 X=7 的时候,额外存储占用约为 30%,理论上已经有盈利可能了。当然实际上根据厂商的设计,(9+2)/(17+3) 都很常见,取决于对存储效率和安全系数的平衡。厂家宣称的可靠性 (Reliability) 就是由此通过某种模型推导出来的。



    从腾讯的宣传来看,云存储用的是 SDS (Software defined storage) 方案。在这种方案下,具体的硬件不重要,因为 SDS 本身要解决的问题就是摆脱对特定硬件的依赖。根据其用途和支持的特性,我猜测它是类似 ceph 的分布式存储方案。分布式存储和传统(包括 zfs )在内,有着本质的不同,不能拿来类比或者套用理解。

    我这里假定腾讯使用的是类 ceph 方案,仅仅是因为 ceph 恰好可以支持故障复盘中的操作行为,也有可能是自研方案,后面会以 ceph 做例子来解释。



    Ceph 方案用作云硬盘存储后端,是靠 RADOS 协议,在原生对象存储之上,抽象出块存储支持的。这种情况下对存储池做在线扩容迁移,有两种方案,一种是标准的 RBD 镜像操作,另一种是将目标存储池作为原存储池的缓存层,做对象级别的复制。考虑到复盘描述中运维人员可以选择部分云硬盘作为迁移对象而不是全部复制迁移,缓存层迁移又不需要回收过程,我倾向于实际的操作是第一种也就是 RBD 镜像的方式。

    有关“加速迁移”的问题,我认为确实有可能存在 cpu 瓶颈。原理上,客户端(数据读取端,ceph client 的含义和一般意义上的客户端不同)独立连接各个存储介质,读取到分块后本地重组校验,这个过程是消耗 cpu 的。所谓瓶颈比较大的原因可能在于目标存储池也在提供服务,为避免复制过程中的高 cpu 占用和 IO 占用对在线系统造成冲击,人为限制的结果。

    源数据被目标存储池读出的过程是不可能被”加速“的,任何一个存储系统都会把校验做在读取时,基本的逻辑是系统可以读不出数据,但读出的数据一定要保证是正确的。反过来,写入过程是有可能被”加速“的。这是因为在写入之后立即读取做写入验证的意义不大,没有人能保证下次读取的时候这些数据还是正确的。但这一点正在逐渐改变,随着存储量数量级的增长,曾经被认为小概率的 BitRot/SilentCorruption 成了常规事件,正在越来越多地影响存储系统。(注:这里的校验是文件系统级别的。)

    对于 ceph 来说,写入目标存储池的”加速“手段,只有不写入校验信息一个手段,不仅减少了校验运算,还省去了部分空间占用。以目前 BlueStore 做存储后端(可以理解为 raw 文件系统),可以由 bluestore_csum_type 来控制是否同时写入 checksum 校验信息,可选参数有 none/crc32c/crc32c_16/crc32c_8/xxhash32/xxhash64,默认 crc32c。如果要关闭数据校验,就是将该参数由 crc32c 修改为 none。(注:这里的校验是 raw 级别的。)

    事故的成因很清楚了:硬盘自身的校验由于 bug 固件失效,raw 存储级别的校验又被人为禁用了,写入的过程因为某些意外(宇宙射线等等)导致写入错误,但由于缺少强制的写入验证,待到读取时才从文件系统级别的校验发现错误,为时已晚。



    我个人认为,问题最严重的地方不在于取消校验导致此次事故,而是整个扩容后的目标存储池都是没有写入校验信息的(按推理来说扩容前的存储池设置也是一样没有校验的),潜在受影响的其实是所有的存储数据,虽然出事故的只有小部分。换句话说,腾讯的存储方案可能自设计之初就没有对 BitRot/SilentCorruption 做针对性应对。



    PS
    我不是很赞同关于存储超售的说法,即使有超售行为,通常也是建立在对客户存储占用率建模基础之上的,只要配合适当的迁移方案,不是什么大问题。再有 ceph 的分布式设计会有一些不灵活的地方,一方面要预留足够的空余存储来保证存储节点意外失效后的自修复,另一方面随着硬件的更替,原有的设计参数比如 pg 等等可能不适合新的存储设计了,需要迁移或者重新平衡来更新节点的存储布局。

    至于疑问三,在线迁移结束之前,io 还是指向仓库 I 的。指向仓库 II 之后三分钟就发现异常了。
    2018-01-24 00:23:55 +08:00
    回复了 shadownet 创建的主题 macOS APFS 的备份正确姿势是?
    回答楼主的提问,目前备份 APFS 的方式依旧是 Time Machine 到 HFS+ 设备上。

    关于 TM 不支持 APFS 的原因,我认为小部分是技术问题,大概率是决策问题。

    APFS 的核心改变在于 Copy on Write 的写入模式,单一副本多重增量。对于人类用户而言的备份,更侧重于多重副本的意义,这和 CoW 类文件系统的快照概念是相冲突的。所谓决策上的问题,综合安全性、成本和易用性,CoW 类文件系统是否适合作为备份用途。存储设备本身的特性也可能是考量因素,比如机械硬盘适合多重副本,非易失性闪存适合快照等等。

    技术上的问题在于,CoW 快照备份到非 CoW 设备上,需要将多重增量还原成多份不同的副本; CoW 快照在不同设备之间备份和恢复,需要文件系统本身支持( ZFS 的对应功能叫 send/recv )。目前 APFS 只是以内部 API 的方式来工作,可能官方认为对应的功能还不够完善。

    长远来看,技术问题可能不是问题,但策略问题更可能影响现有 TM 类软硬件的发展。
    2017-09-14 13:27:10 +08:00
    回复了 zhuang 创建的主题 随想 再见 Touch ID,再见指纹识别
    @paolongtao
    你说的这一点我在别处提到过,只是这里着重谈指纹识别所以仅仅用交互不足略过了。

    “面部识别还是有先天缺陷的,用作认证毫无压力,但用作授权就有交互逻辑的问题。原因在于机器无法区分 attention/intention,指纹授权不存在这个问题,意图是人决定的,面部识别大概需要增加一个步骤,比如做出表情或者点头动作,或者手指点选确认,略微不够自然。”
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2726 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 24ms · UTC 14:39 · PVG 22:39 · LAX 06:39 · JFK 09:39
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.