本文翻译自 Facebook 在 LPC 2021 大会上的一篇分享:From XDP to Socket: Routing of packets beyond XDP with BPF。
因为 XDP 运行在网卡上,而且在边界和流量入口,再往后的路径(尤其是到了内核协议栈)它就管不到了,所以引入了其他一些BPF技术来“接力”这个路由过程。另外, 这里的“路由”并非狭义的路由器三层路由,而是泛指 L3-L7 流量转发。
翻译时加了一些链接和代码片段,以更方便理解。
由于译者水平有限,本文不免存在遗漏或错误之处。如有疑问,请查阅原文。
以下是译文。
译者序
1 引言
1.1 前期工作
1.2 Facebook 流量基础设施
1.3 面临的挑战
2 选择后端主机:数据中心内流量的一致性与无状态路由(四层负载均衡)
2.3.1 原理和流程
2.3.2 开销
2.3.3 实现细节
2.3.4 效果
2.3.5 限制
数据开销:TCP header 增加 6 个字节
运行时开销:不明显
监听的 socket 事件
维护 TCP flow -> server_id 的映射
server_id 的分配和同步
2.2.1 容错性:后端故障对非相关连接的扰动
2.2.2 TCP 长连接面临的问题
2.2.3 QUIC 协议为什么不受影响
connection_id
完全无状态四层路由
2.1 Katran (L4LB) 负载均衡机制
2.2 一致性哈希的局限性
2.3 TCP 连接解决方案:利用 BPF 将 backend server 信息嵌入 TCP Header
2.4 小结
3 选择 socket:服务的真正优雅发布(七层负载均衡)
3.3.1 方案设计
3.3.2 好处
3.3.3 发布过程中的流量切换详解
3.3.4 新老方案效果对比
3.3.5 小结
3.2.1 早期方案:socket takeover (or zero downtime restart)
3.2.2 其他方案调研:SO_REUSEPORT
3.2.3 思考
发布流程
存在的问题
3.1.1 发布流程
3.1.2 存在的问题
3.1 当前发布方式及存在的问题
3.2 不损失容量、快速且用户无感的发布
3.3 新方案:bpf_sk_reuseport
4 讨论
4.1 遇到的问题:CPU 毛刺(CPU spikes)甚至卡顿
4.2 Listening socket hashtable
4.3 bpf_sk_lookup
用户请求从公网到达 Facebook 的边界 L4LB 节点之后,往下会涉及到两个阶段(每个阶 段都包括了 L4/L7)的流量转发:
以上两个阶段都涉及到流量的一致性路由(consistent routing of packets)问题。本文介绍这一过程中面临的挑战,以及我们如何基于最新的 BPF/XDP 特性来应对这些挑战。
几年前也是在 LPC 大会,我们分享了 Facebook 基于 XDP 开发的几种服务,例如
Facebook 两代软件 L4LB 对比。 左:第一代,基于 IPVS,L4LB 需独占节点;右:第二代,基于 XDP,不需独占节点,与业务后端混布。
从层次上来说,如下图所示,Facebook 的流量基础设施分为两层:
从功能上来说,如下图所示:
总结一下前面的内容:公网流量到达边界节点后,接下来会涉及 两个阶段的流量负载均衡(每个阶段都是 L4+L7),
这两个阶段都涉及到流量的高效、一致性路由(consistent routing)问题。
本文介绍这一过程中面临的挑战,以及我们是如何基于最新的 BPF/XDP 特性 来解决这些挑战的。具体来说,我们用到了两种类型的 BPF 程序:
BPF_PROG_TYPE_SK_REUSEPORT
[4](及相关 map 类型 BPF_MAP_TYPE_REUSEPORT_SOCKARRAY
):解决主机内(微观)负载均衡问题。先看第一部分,从 LB 节点转发到 backend 机器时,如何来选择主机。这是四层负载均衡问题。
回到流量基础设施图,这里主要关注 Origin DC 内部 L4-L7 的负载均衡,
katran 是基于 XDP 实现的四层负载均衡器,它的内部机制:
用伪代码来表示 Katran 选择后端主机的逻辑:
int pick_host(packet* pkt) {
if (is_in_local_cache(pkt))
return local_cache[pkt]
return consistent_hash(pkt) % server_ring
}
这种机制非常有效,也非常高效(highly effective and efficient)。
一致性哈希的一个核心特性是具备对后端变化的容错性(resilience to backend changes)。当一部分后端发生故障时,其他后端的哈希表项不受影响(因此对应的连接及主机也不受影响)。Maglev 论文中已经给出了评估这种容错性的指标,如下图,
Resilience of Maglev hashing to backend changes
Maglev: A fast and reliable software network load balancer. OSDI 2016
Google 放这张图是想说明:一部分后端发生变化时,其他后端受影响的概率非常小;但从我们的角度来说,以上这张图说明:即使后端挂掉的比例非常小, 整个哈希表还是会受影响,并不是完全无感知 —— 这就会 导致一部分流量被错误路由(misrouting):
首先要说明,高效 != 100% 有效。对于 TCP 长连接来说(例如视频),有两种场景会它们被 reset:
int pick_host(packet* pkt) {
if (is_in_local_cache(pkt)) // 场景一:ECMP shuffle 时(例如 LB 节点维护或故障),这里会 miss
return local_cache[pkt]
return consistent_hash(pkt) % server_ring // 场景二:后端维护或故障时,这里的好像有(较小)概率发生变化
}
解释一下:
以上分析可以看出,“持续发布” L4 和 L7 服务会导致连接不稳定,降低整体可靠性。除了发布之外,我们随时都有大量服务器要维护,因此哈希 ring 发生变化(一致性哈希 发生扰动)是日常而非例外。任何时候发生 ECMP shuffle 和服务发布/主机维护,都会导 致一部分 active 连接受损,虽然量很小,但会降低整体的可靠性指标。
解决这个问题的一种方式是在所有 LB 节点间共享这个 local cache (类似于 L4LB 中的 session replication),但这是个很糟糕的主意 ,因为这就需要去解决另外一大堆分布式系统相关的问题,尤其我们不希望引入任何 会降低这个极快数据路径性能的东西。
但对于 QUIC 来说,这都不是问题。
connection_id
QUIC 规范(RFC 9000)中允许 server 将任意信息嵌入到包的 connection_id
字段。
Facebook 已经广泛使用 QUIC 协议,因此在 Facebook 内部,我们可以
1 . 在 server 端将路由信息(routing information)嵌入到 connection_id
字段,并
2 . 要求客户端必须将这个信息带回来。
这样整条链路上都可以从包中提取这个 id,无需任何哈希或 cache 查找,最终实现的是一个 完全无状态的四层路由(completely stateless routing in L4)。
那能不能为 TCP 做类似的事情呢?答案是可以。这就要用到 BPF-TCP header option 了。
基本思想:
1 . 编写一段 BPF_PROG_TYPE_SOCK_OPS
类型的 BPF 程序,attach 到 cgroup:
2 . 在 L4LB 侧维护一个 server_id 缓存,记录仍然存活的 backend 主机 以下图为例,我们来看下 LB 节点和 backend 故障时,其他 backend 上的原有连接如何做到不受影响:
2 . L4LB 第一次见这条 flow,因此通过一致性哈希为它选择一台 backend 主机,然后将包转发过去;
图中这台主机获取到自己的 server_id 是 42,然后将这个值写到 TCP header;
客户端主机收到包后,会解析这个 id 并存下来,后面发包时都会带上这个 server_id;
3 . 服务端应答 SYN+ACK,其中 服务端 BPF 程序将 server_id 嵌入到 TCP 头中;
假设过了一会发生故障,前面那台 L4LB 挂了(这会导致 ECMP 发生变化);另外,某些 backend hosts 也挂了(这会 影响一致性哈希,原有连接接下来有小概率会受到影响),那么接下来,
4 . 客户端流量将被(数据中心基础设施)转发到另一台 L4LB;
可以看到在 TCP Header 中引入了路由信息后,未发生故障的主机上的长连接就能够避免 因 L4LB 和主机挂掉而导致的 misrouting(会被直接 reset)。
struct tcp_opt {
uint8_t kind;
uint8_t len;
uint32_t server_id;
}; // 6-bytes total
需要在 L4LB 中解析 TCP header 中的 server_id 字段,理论上来说,这个开销跟代码实 现的好坏相关。我们测量了自己的实现,这个开销非常不明显。
switch (skops->op) {
case BPF_SOCK_OPS_TCP_LISTEN_CB:
case BPF_SOCK_OPS_PASSIVE_ESTABLISHED_CB:
case BPF_SOCK_OPS_TCP_CONNECT_CB:
case BPF_SOCK_OPS_ACTIVE_ESTABLISHED_CB:
case BPF_SOCK_OPS_PARSE_HDR_OPT_CB:
case BPF_SOCK_OPS_HDR_OPT_LEN_CB:
case BPF_SOCK_OPS_WRITE_HDR_OPT_CB:
. . .
}
在每个 LB 节点上用 bpf_sk_storage 来存储 per-flow server_id。也就是说,
前面还没有提到如何分配 server_id,以及如何保证这些后端信息在负 载均衡器侧的时效性和有效性。
我们有一个 offline 工作流,会给那些有业务在运行的主机随机分配 一个 id,然后将这个信息同步给 L4 和 L7 负载均衡器(Katran and Proxygen), 后者拿到这些信息后会将其加载到自己的控制平面。因此这个系统不会有额外开销,只要 保证 LB 的元信息同步就行了。
由于这个机制同时适用于 QUIC 和 TCP,因此 pipeline 是同一个。
下面是一次发布,可以看到发布期间 connection reset 并没有明显的升高:
这种方式要求 TCP 客户端和服务端都在自己的控制之内,因此
对典型的数据中心内部访问比较有用;
要用于数据中心外的 TCP 客户端,就要让后者将带给它们的 server_id 再带回来,但这个基本做不到;
即使它们带上了,网络中间处理节点(middleboxes)和防火墙(firewalls)也可能会将这些信息丢弃。
通过将 server_id 嵌入 TCP 头中,我们实现了一种 stateless routing 机制,
前面介绍了流量如何从公网经过内网 LB 到达 backend 主机。再来看在主机内,如何路由流量来保证七层服务(L7 service)发布或重启时不损失任何流量。
这部分内容在 SIGCOMM 2020 论文中有详细介绍。想了解细节的可参考:
Facebook,Zero Downtime Release: Disruption-free Load Balancing of a Multi-Billion User Website[5]. SIGCOMM 2020
L7LB Proxygen 自身也是一个七层服务,我们以它的升级为例来看一下当前发布流程。
1 . 发布前状态:Proxygen 实例上有一些老连接,也在不断接受新连接,
2 . 拉出:拉出之后的实例不再接受新连接,但在一定时间窗口内,继续为老连接提供服务;
a . 这个窗口称为 graceful shutdown(也叫 draining) period,例如设置为 5 或 10 分钟;
b . 拉出一般是通过将 downstream service 的健康监测置为 false 来实现的,例如在这个例子中,就是让 Proxygen 返回给 katran 的健康监测是失败的。
3 . 发布新代码:graceful 窗口段过了之后,不管它上面还有没有老连接,直接开始升级。
一般来说,只要 graceful 时间段设置比较合适,一部分甚至全部老连接能够在这个 窗口内正常退出,从而不会引起用户可见的 spike;但另一方面,如果此时仍然有老 连接,那这些客户端就会收到 tcp reset。
a . 部署新代码,
b . 关闭现有进程,创建一个新进程运行新代码。
4 . 监听并接受新连接:升级之后的 Proxygen 开始正常工作, 最终达到和升级之前同等水平的一个连接状态。
很多公司都是用的以上那种发布方式,它的实现成本比较低,但也存在几个问题:
从 graceful shutdown 开始,到新代码已经接入了正常量级的流量,这段时间内 系统容量并没有达到系统资源所能支撑的最大值, 例如三个 backend 本来最大能支撑 3N 个连接,那在升级其中一台的时间段内,系统能支撑的最大连接数就会小于 3N,在 2N~3N 之间。这也是为什么很多公司都避免在业务高峰(而是选择类似周日凌晨五点这样的时间点)做这种变更的原因之一。 2. 发布周期太长
假设有 100 台机器,分成 100 个批次(phase),每次发布一台, 如果 graceful time 是 10 分钟,一次发布就需要 1000 分钟,显然是不可接受的。
本质上来说,这种方式扩展性太差,主机或实例数量一多效率就非常低了。
以上分析引出的核心问题是:如何在用户无感知的前提下,不损失容量(without losing capacity)且非常快速(very high velocity)地完成发布。
我们在早期自己实现了一个所谓的 zero downtime restart 或称 socket takeover 方案。具体细节见前面提到的 LPC 论文,这里只描述下大概原理:相比于等待老进程的连接完全退出再开始发布,我们的做法是直接创建一个新进程,然后通过一个唯 一的 local socket 将老进程中 TCP listen socket 和 UDP sockets 的文件描述符 (以及 SCM rights)转移到新进程。
如下图所示,发布前,实例正常运行,同时提供 TCP 和 UDP 服务,其中,
接下来开始发布:
1 ~ N
),N+1 ~ +∞
),包括新的 TCP 连接和新的 UDP 连接可以看到,这种方式:
那么,这种方式有什么缺点吗?
一个显而易见的缺点是:这种发布方式需要更多的系统资源,因为对于每个要升级的实例 ,它的新老实例需要并行运行一段时间;而在之前发布模型是干掉老实例再创建新实例, 不会同时运行。
但我们今天要讨论的是另一个问题:UDP 流量的分发或称解复用(de-multiplex)。
由于 socket 迁移是在内核做的,而内核没有 QUIC 上下文(在应用层维护),因此 当新老进程同时运行时,内核无法知道对于一个现有 UDP 连接的包,应该送给哪个进程 (因为对于 QUIC 没有 listening socket 或 accepted socket 的概念),因此有些包会到老进程,有些到新进程,如下图左边所示;
为解决这个问题,我们引入了用户空间解决方案。例如在 QUIC 场景下,会查看 ConnectionID 等 QUIC 规范中允许携带的元信息,然后根据这些信息,通过另一个 local socket 转发给相应的老进程,如以上右图所示。
虽然能解决 QUIC 的问题,但可以看出,这种方式非常复杂和脆弱,涉及到大量进程间通信,需要维护许多状态。有没有简单的方式呢?
Socket takeover 方案复杂性和脆弱性的根源在于:为了做到客户端无感,我们在两个进程间共享了同一个 socket。因此要解决这个问题,就要避免在多个进程之间共享 socket。
这自然使我们想到了 SO_REUSEPORT[6]: 它允许 多个 socket bind 到同一个 port。但这里仍然有一个问题:UDP 包的路由过程是非一致的(no consistent routing for UDP packets),如下图所示:
如果新老实例的 UDP socket bind 到相同端口,那一个实例重启时,哈希结果就会发生变化,导致这个端口上的包发生 misrouting。
另一方面,SO_REUSEPORT 还有性能问题,
因此直接使用 SO_REUSEPORT 是不行的。
我们后退一步,重新思考一下我们的核心需求是什么。有两点:
内核提供了很多功能,但并没有哪个功能是为专门这个场景设计的。因此要彻底解决问题,我们必须引入某种创新。
最终我们引入了一个 socket 层负载均衡器 bpf_sk_reuseport。
bpf_sk_reuseport
简单来说,
这种设计的好处:
Proxygen 在启动时经常要做一些初始化操作,启动后做一些健康检测工作, 因此在真正开始干活之前还有一段并未 ready 接收请求/流量的窗口 —— 即使它此时已经 bind 到端口了。
在新方案中,我们无需关心这些,应用层自己会判断新进程什么时候可以接受流量 并通知 BPF 程序做流量切换; 3. 性能方面,也解决了前面提到的 UDP 单线程瓶颈; 4. 在包的路由(packet-level routing)方面,还支持根据 CPU 调整路由权重(adjust weight of traffic per-cpu)。例如在多租户环境中,CPU 的利用率可能并不均匀,可以根据自己的需要实现特定算法来调度,例如选择空闲的 CPU。 5. 最后,未来迭代非常灵活,能支持多种新场景的实验,例如让每个收到包从 CPU 负责处理该包,或者 NUMA 相关的调度。
用一个 BPF_MAP_TYPE_REUSEPORT_SOCKARRAY
类型的 BPF map 来配置转发规则,其中,
<VIP>:<Port>
如下图所示,即使新进程已经起来,但只要还没 ready(BPF map 中仍然指向老进程),
BPF 就继续将所有流量转给老进程,
新进程 ready 后,更新 BPF map,告诉 BPF 程序它可以接收流量了:
BPF 程序就开始将流量转发给新进程了:
前面没提的一点是:我们仍然希望将 UDP 包转发到老进程上,这里实现起来其实就非常简单了:
这也解决了扩展性问题,现在可以并发接收包(one-thread-per-socket),不用担心新进程启动时的 disruptions 或 misrouting 了:
先来看发布过程对业务流量的扰动程度。下图是我们的生产数据中心某次发布的统计,图中有两条线:
可以看到在整个升级期间,丢包数量没有明显变化。
再来看流量分发性能,分别对 socket takeover 和 bpf_sk_reuseport 两种方式加压:
生产环境遇到过一个严重问题:新老进程同时运行期间,观察到 CPU spike 甚至 host locking;但测试环境从来没出现过,而且在实现上我们也没有特别消耗 CPU 的逻辑。
排查之后发现,这个问题跟 BPF 程序没关系,直接原因是
bind("[::1]:443"); /* without SO_REUSEPORT. Succeed. */
bind("[::2]:443"); /* with SO_REUSEPORT. Succeed. */
bind("[::]:443"); /* with SO_REUSEPORT. Still Succeed */
如果有大量 http endpoints,那 key 很可能就是 443 和 80;这会导致 CPU 毛刺甚至机器卡住。
这个问题花了很长时间排查,因此有人在类型场景下遇到类似问题,很可能跟这个有关。相关内核代码[7], 修复见 patch[8]。
bpf_sk_select_reuseport
vs bpf_sk_lookup
Cloudflare 引入了 bpf\_sk\_lookup
[9],
This series proposes a new BPF program type named BPF_PROG_TYPE_SK_LOOKUP,
or BPF sk_lookup for short.
BPF sk_lookup program runs when transport layer is looking up a listening
socket for a new connection request (TCP), or when looking up an
unconnected socket for a packet (UDP).
This serves as a mechanism to overcome the limits of what bind() API allows
to express. Two use-cases driving this work are:
(1) steer packets destined to an IP range, fixed port to a single socket
192.0.2.0/24, port 80 -> NGINX socket
(2) steer packets destined to an IP address, any port to a single socket
198.51.100.1, any port -> L7 proxy socket
更多信息,可参考他们的论文:
The ties that un-bind: decoupling IP from web services and sockets for robust addressing agility at CDN-scale, SIGCOMM 2021
可以看到,它也允许多个 socket bind 到同一个 port,因此与 bpf_sk_select_reuseport
功能有些重叠,因为二者都源于这样一种限制:在收包时,缺少从应用层直接命令内核选择哪个 socket 的控制能力。
但二者也是有区别的:
sk_select_reuseport
与 IP 地址所属的 socket family 是紧耦合的sk_lookup
则将 IP 与 socket 解耦 —— lets it pick any / netns本节介绍了我们的基于 BPF_PROG_TYPE_SK_REUSEPORT 和 BPF_MAP_TYPE_REUSEPORT_SOCKARRAY 实现的新一代发布技术,它能实现主机内新老实例流量的无损切换,优点:
[1]From XDP to Socket: Routing of packets beyond XDP with BPF: https://linuxplumbersconf.org/event/11/contributions/950/
[2]katran: https://engineering.fb.com/2018/05/22/open-source/open-sourcing-katran-a-scalable-network-load-balancer/
[3]BPF TCP header options: https://lwn.net/Articles/827672/
[4]BPF_PROG_TYPE_SK_REUSEPORT
: http://archive.lwn.net:8080/netdev/20180808080131.3014367-1-kafai@fb.com/t/
[5]Zero Downtime Release: Disruption-free Load Balancing of a Multi-Billion User Website: https://dl.acm.org/doi/pdf/10.1145/3387514.3405885
[6]SO_REUSEPORT: https://lwn.net/Articles/542629/
[7]代码: https://github.com/torvalds/linux/blob/v5.10/net/ipv4/inet_connection_sock.c#L376
[8]patch: https://lore.kernel.org/lkml/20200601174049.377204943@linuxfoundation.org/
[9]bpf_sk_lookup
: https://lwn.net/Articles/825103/
本文由哈喽比特于2年以前收录,如有侵权请联系我们。
文章来源:https://mp.weixin.qq.com/s/hqKElw4c-7m_j8hw0whSyg
京东创始人刘强东和其妻子章泽天最近成为了互联网舆论关注的焦点。有关他们“移民美国”和在美国购买豪宅的传言在互联网上广泛传播。然而,京东官方通过微博发言人发布的消息澄清了这些传言,称这些言论纯属虚假信息和蓄意捏造。
日前,据博主“@超能数码君老周”爆料,国内三大运营商中国移动、中国电信和中国联通预计将集体采购百万台规模的华为Mate60系列手机。
据报道,荷兰半导体设备公司ASML正看到美国对华遏制政策的负面影响。阿斯麦(ASML)CEO彼得·温宁克在一档电视节目中分享了他对中国大陆问题以及该公司面临的出口管制和保护主义的看法。彼得曾在多个场合表达了他对出口管制以及中荷经济关系的担忧。
今年早些时候,抖音悄然上线了一款名为“青桃”的 App,Slogan 为“看见你的热爱”,根据应用介绍可知,“青桃”是一个属于年轻人的兴趣知识视频平台,由抖音官方出品的中长视频关联版本,整体风格有些类似B站。
日前,威马汽车首席数据官梅松林转发了一份“世界各国地区拥车率排行榜”,同时,他发文表示:中国汽车普及率低于非洲国家尼日利亚,每百户家庭仅17户有车。意大利世界排名第一,每十户中九户有车。
近日,一项新的研究发现,维生素 C 和 E 等抗氧化剂会激活一种机制,刺激癌症肿瘤中新血管的生长,帮助它们生长和扩散。
据媒体援引消息人士报道,苹果公司正在测试使用3D打印技术来生产其智能手表的钢质底盘。消息传出后,3D系统一度大涨超10%,不过截至周三收盘,该股涨幅回落至2%以内。
9月2日,坐拥千万粉丝的网红主播“秀才”账号被封禁,在社交媒体平台上引发热议。平台相关负责人表示,“秀才”账号违反平台相关规定,已封禁。据知情人士透露,秀才近期被举报存在违法行为,这可能是他被封禁的部分原因。据悉,“秀才”年龄39岁,是安徽省亳州市蒙城县人,抖音网红,粉丝数量超1200万。他曾被称为“中老年...
9月3日消息,亚马逊的一些股东,包括持有该公司股票的一家养老基金,日前对亚马逊、其创始人贝索斯和其董事会提起诉讼,指控他们在为 Project Kuiper 卫星星座项目购买发射服务时“违反了信义义务”。
据消息,为推广自家应用,苹果现推出了一个名为“Apps by Apple”的网站,展示了苹果为旗下产品(如 iPhone、iPad、Apple Watch、Mac 和 Apple TV)开发的各种应用程序。
特斯拉本周在美国大幅下调Model S和X售价,引发了该公司一些最坚定支持者的不满。知名特斯拉多头、未来基金(Future Fund)管理合伙人加里·布莱克发帖称,降价是一种“短期麻醉剂”,会让潜在客户等待进一步降价。
据外媒9月2日报道,荷兰半导体设备制造商阿斯麦称,尽管荷兰政府颁布的半导体设备出口管制新规9月正式生效,但该公司已获得在2023年底以前向中国运送受限制芯片制造机器的许可。
近日,根据美国证券交易委员会的文件显示,苹果卫星服务提供商 Globalstar 近期向马斯克旗下的 SpaceX 支付 6400 万美元(约 4.65 亿元人民币)。用于在 2023-2025 年期间,发射卫星,进一步扩展苹果 iPhone 系列的 SOS 卫星服务。
据报道,马斯克旗下社交平台𝕏(推特)日前调整了隐私政策,允许 𝕏 使用用户发布的信息来训练其人工智能(AI)模型。新的隐私政策将于 9 月 29 日生效。新政策规定,𝕏可能会使用所收集到的平台信息和公开可用的信息,来帮助训练 𝕏 的机器学习或人工智能模型。
9月2日,荣耀CEO赵明在采访中谈及华为手机回归时表示,替老同事们高兴,觉得手机行业,由于华为的回归,让竞争充满了更多的可能性和更多的魅力,对行业来说也是件好事。
《自然》30日发表的一篇论文报道了一个名为Swift的人工智能(AI)系统,该系统驾驶无人机的能力可在真实世界中一对一冠军赛里战胜人类对手。
近日,非营利组织纽约真菌学会(NYMS)发出警告,表示亚马逊为代表的电商平台上,充斥着各种AI生成的蘑菇觅食科普书籍,其中存在诸多错误。
社交媒体平台𝕏(原推特)新隐私政策提到:“在您同意的情况下,我们可能出于安全、安保和身份识别目的收集和使用您的生物识别信息。”
2023年德国柏林消费电子展上,各大企业都带来了最新的理念和产品,而高端化、本土化的中国产品正在不断吸引欧洲等国际市场的目光。
罗永浩日前在直播中吐槽苹果即将推出的 iPhone 新品,具体内容为:“以我对我‘子公司’的了解,我认为 iPhone 15 跟 iPhone 14 不会有什么区别的,除了序(列)号变了,这个‘不要脸’的东西,这个‘臭厨子’。