这次分享《[Go 语言编程之旅] 》中的性能分析大杀器 PProf,文章字数有 1w3+ 字,我想应该是目前业界比较全的 PProf 文章了。
希望借此让更多的 Go 语言爱好者搞懂 PProf 的使用,以便在成为救火队长时,都能够脱颖而出,成为团队核心主力,实现晚上 7 点下班。
本文目录如下:
觉得不错的话,欢迎点赞和转发给更多小伙伴们看到,感谢。
应用程序在运行时,总是会出现一些你所意料不到的问题,像是跑着跑着突然报警,监控提示你进程 CPU 使用率过高、内存占用不断增大(疑似泄露)、临时内存大量申请后长时间内不滑,又或是 Goroutine 泄露、出现 Goroutine 数量暴涨,并且持续保持,甚至是莫名其妙在某次迭代发布后的数小时内出现了应用程序无法提供服务的问题...
这发生起来的话,是多么的让人感到担忧,那么除了在我们平时要做好各类防护以外,在问题正在发生时,我们又有什么办法排查呢,因此在这个章节,我们将介绍排查办法之一,也就是 Go 语言的性能剖析大杀器 PProf 工具链,它是 Go 语言中必知必会的技能点。
在 Go 语言中,PProf 是用于可视化和分析性能分析数据的工具,PProf 以 profile.proto 读取分析样本的集合,并生成报告以可视化并帮助分析数据(支持文本和图形报告)。
而刚刚提到的 profile.proto 是一个 Protobuf v3 的描述文件,它描述了一组 callstack 和 symbolization 信息, 作用是统计分析的一组采样的调用栈,是很常见的 stacktrace 配置文件格式。
runtime.SetBlockProfileRate
进行设置。runtime.SetMutexProfileFraction
进行设置。其中像是 Goroutine Profiling 这项功能会在实际排查中会经常用到。
因为很多问题出现时的表象就是 Goroutine 暴增,而这时候我们要做的事情之一就是查看应用程序中的 Goroutine 正在做什么事情,因为什么阻塞了,然后再进行下一步。
我们新建一个 main.go 文件,用于后续的应用程序分析和示例展示,写入如下代码:
var datas []string
func main() {
go func() {
for {
log.Printf("len: %d", Add("go-programming-tour-book"))
time.Sleep(time.Millisecond * 10)
}
}()
_ = http.ListenAndServe("0.0.0.0:6060", nil)
}
func Add(str string) int {
data := []byte(str)
datas = append(datas, string(data))
return len(datas)
}
接下来最重要的一步,就是在 import 中添加 _ "net/http/pprof"
的引用,如下:
import (
_ "net/http/pprof"
...
)
接下来我们运行这个程序,访问 http://127.0.0.1:6060/debug/pprof/
地址,检查是否正常响应。
第一种方式,我们可以直接通过浏览器,进行查看,那么在第一步我们可以先查看总览页面,也就是访问 http://127.0.0.1:6060/debug/pprof/
,如下:
/debug/pprof/
Types of profiles available:
Count Profile
3 allocs
0 block
0 cmdline
8 goroutine
3 heap
0 mutex
0 profile
11 threadcreate
0 trace
full goroutine stack dump
$HOST/debug/pprof/allocs
。$HOST/debug/pprof/block
。$HOST/debug/pprof/goroutine
。$HOST/debug/pprof/heap
。$HOST/debug/pprof/mutex
。$HOST/debug/pprof/profile
。$HOST/debug/pprof/threadcreate
。如果你在对应的访问路径上新增 ?debug=1
的话,就可以直接在浏览器访问,如下:
debug 模式
若不新增 debug
参数,那么将会直接下载对应的profile文件。
再展开来讲,在部署环境中,我们为了网络安全,通常不会直接对外网暴露 pprof 的相关端口,因此会通过 curl
、wget
等方式进行 profile 文件的间接拉取。
另外还有一点需要注意,debug 的访问方式是具有时效性的,在实际场景中,我们常常需要及时将当前状态下的 profile 文件给存储下来,便于二次分析。
第二种方式,我们可以直接通过命令行,来完成对正在运行的应用程序 pprof 的抓取和分析。
$ go tool pprof http://localhost:6060/debug/pprof/profile\?seconds\=60
Fetching profile over HTTP from http://localhost:6060/debug/pprof/profile?seconds=60
Saved profile in /Users/eddycjy/pprof/pprof.samples.cpu.002.pb.gz
Type: cpu
Duration: 1mins, Total samples = 37.25s (61.97%)
Entering interactive mode (type "help" for commands, "o" for options)
(pprof)
执行该命令后,需等待 60 秒(可调整 seconds 的值),pprof 会进行 CPU Profiling,结束后将默认进入 pprof 的命令行交互式模式,可以对分析的结果进行查看或导出。另外如果你所启动的 HTTP Server 是 TLS 的方式,那么在调用 go tool pprof
时,需要将调用路径改为:go tool pprof https+insecure://localhost:6060/debug/pprof/profile\?seconds\=60
。
接下来我们输入查询命令 top10
,以此查看对应资源开销(例如:CPU 就是执行耗时/开销、Memory 就是内存占用大小)排名前十的函数,如下:
(pprof) top10
Showing nodes accounting for 36.23s, 97.26% of 37.25s total
Dropped 80 nodes (cum <= 0.19s)
Showing top 10 nodes out of 34
flat flat% sum% cum cum% Name
32.63s 87.60% 87.60% 32.70s 87.79% syscall.syscall
0.87s 2.34% 89.93% 0.88s 2.36% runtime.stringtoslicebyte
0.69s 1.85% 91.79% 0.69s 1.85% runtime.memmove
0.52s 1.40% 93.18% 0.52s 1.40% runtime.nanotime
...
(pprof)
在大多数的情况下,我们可以通过这五列得出一个应用程序的运行情况,知道当前是什么函数,正在做什么事情,占用了多少资源,谁又是占用资源的大头,以此来得到一个初步的分析方向。
另外在交互命令行中,pprof 还支持了大量的其它命令,具体可执行 pprof help
查看帮助说明。
$ go tool pprof http://localhost:6060/debug/pprof/heap
Fetching profile over HTTP from http://localhost:6060/debug/pprof/heap
Saved profile in /Users/eddycjy/pprof/pprof.alloc_objects.alloc_space.inuse_objects.inuse_space.011.pb.gz
Type: inuse_space
Entering interactive mode (type "help" for commands, "o" for options)
(pprof)
执行该命令后,能够很快的拉取到其结果,因为它不需要像 CPU Profiling 做采样等待,这里需要注意的一点是 Type
这一个选项,你可以看到它默认显示的是 inuse_space
,实际上可以针对多种内存概况进行分析,常用的类别如下:
$ go tool pprof -inuse_space http://localhost:6060/debug/pprof/heap
(pprof) top
Showing nodes accounting for 4.01GB, 100% of 4.01GB total
flat flat% sum% cum cum%
4.01GB 100% 100% 4.01GB 100% main.Add
0 0% 100% 4.01GB 100% main.main.func1
$ go tool pprof -alloc_objects http://localhost:6060/debug/pprof/heap
(pprof) top
Showing nodes accounting for 215552550, 100% of 215560746 total
Dropped 14 nodes (cum <= 1077803)
flat flat% sum% cum cum%
86510197 40.13% 40.13% 86510197 40.13% main.Add
85984544 39.89% 80.02% 85984544 39.89% fmt.Sprintf
43057809 19.97% 100% 215552550 100% main.main.func1
0 0% 100% 85984544 39.89% log.Printf
另外还有 inuse_objects 和 alloc_space 类别,分别对应查看每个函数所分别的对象数量和查看分配的内存空间大小,具体可根据情况选用。
$ go tool pprof http://localhost:6060/debug/pprof/goroutine
Fetching profile over HTTP from http://localhost:6060/debug/pprof/goroutine
Saved profile in /Users/eddycjy/pprof/pprof.goroutine.003.pb.gz
Type: goroutine
Entering interactive mode (type "help" for commands, "o" for options)
(pprof)
在查看 goroutine 时,我们可以使用traces
命令,这个命令会打印出对应的所有调用栈,以及指标信息,可以让我们很便捷的查看到整个调用链路有什么,分别在哪里使用了多少个 goroutine,并且能够通过分析查看到谁才是真正的调用方,输出结果如下:
(pprof) traces
Type: goroutine
-----------+-------------------------------------------------------
2 runtime.gopark
runtime.netpollblock
internal/poll.runtime_pollWait
...
-----------+-------------------------------------------------------
1 runtime.gopark
runtime.netpollblock
...
net/http.ListenAndServe
main.main
runtime.main
在调用栈上来讲,其展示顺序是自下而上的,也就是 runtime.main
方法调用了 main.main
方法,main.main
方法又调用了 net/http.ListenAndServe
方法,这里对应的也就是我们所使用的示例代码了,排查起来会非常方便。
每个调用堆栈信息用 -----------
分割,函数方法前的就是指标数据,像 Goroutine Profiling 展示是就是该方法占用的 goroutine 的数量。而 Heap Profiling 展示的就是占用的内存大小,如下:
$ go tool pprof http://localhost:6060/debug/pprof/heap
...
Type: inuse_space
Entering interactive mode (type "help" for commands, "o" for options)
(pprof) traces
Type: inuse_space
-----------+-------------------------------------------------------
bytes: 13.55MB
13.55MB main.Add
main.main.func1
-----------+-------------------------------------------------------
实际上 pprof 中的所有功能都会根据不同的 Profile 类型展示不同的对应结果。
怎么样的情况下会造成阻塞呢,一般有如下方式:调用 chan
(通道)、调用 sync.Mutex
(同步锁)、调用 time.Sleep()
等等。那么为了验证互斥锁的竞争持有者的堆栈跟踪,我们可以根据以上的 sync.Mutex
方式,来调整先前的示例代码,代码如下:
func init() {
runtime.SetMutexProfileFraction(1)
}
func main() {
var m sync.Mutex
var datas = make(map[int]struct{})
for i := 0; i < 999; i++ {
go func(i int) {
m.Lock()
defer m.Unlock()
datas[i] = struct{}{}
}(i)
}
_ = http.ListenAndServe(":6061", nil)
}
需要特别注意的是 runtime.SetMutexProfileFraction
语句,如果未来希望进行互斥锁的采集,那么需要通过调用该方法来设置采集频率,若不设置或没有设置大于 0 的数值,默认是不进行采集的。
接下来我们进行调用 go tool pprof
进行分析,如下:
$ go tool pprof http://localhost:6061/debug/pprof/mutex
Fetching profile over HTTP from http://localhost:6061/debug/pprof/mutex
Saved profile in /Users/eddycjy/pprof/pprof.contentions.delay.010.pb.gz
Type: delay
Entering interactive mode (type "help" for commands, "o" for options)
我们查看调用 top
命令,查看互斥量的排名:
(pprof) top
Showing nodes accounting for 653.79us, 100% of 653.79us total
flat flat% sum% cum cum%
653.79us 100% 100% 653.79us 100% sync.(*Mutex).Unlock
0 0% 100% 653.79us 100% main.main.func1
接下来我们可以调用 list
命令,看到指定函数的代码情况(包含特定的指标信息,例如:耗时),若函数名不明确,默认会对函数名进行模糊匹配,如下:
(pprof) list main
Total: 653.79us
ROUTINE ======================== main.main.func1 in /eddycjy/main.go
0 653.79us (flat, cum) 100% of Total
. . 40: go func(i int) {
. . 41: m.Lock()
. . 42: defer m.Unlock()
. . 43:
. . 44: datas[i] = struct{}{}
. 653.79us 45: }(i)
. . 46: }
. . 47:
. . 48: err := http.ListenAndServe(":6061", nil)
. . 49: if err != nil {
. . 50: log.Fatalf("http.ListenAndServe err: %v", err)
(pprof)
我们可以在输出的分析中比较准确的看到引起互斥锁的函数在哪里,锁开销在哪里,在本例中是第 45 行。
与 Mutex 的 runtime.SetMutexProfileFraction
相似,Block 也需要调用 runtime.SetBlockProfileRate()
进行采集量的设置,否则默认关闭,若设置的值小于等于 0 也会认为是关闭。
与上小节 Mutex 相比,主体代码不变,仅是新增 runtime.SetBlockProfileRate()
的调用,如下:
func init() {
runtime.SetBlockProfileRate(1)
...
}
我们查看调用 top
命令,查看阻塞情况的排名:
$ go tool pprof http://localhost:6061/debug/pprof/block
Fetching profile over HTTP from http://localhost:6061/debug/pprof/block
Saved profile in /Users/eddycjy/pprof/pprof.contentions.delay.017.pb.gz
Type: delay
Entering interactive mode (type "help" for commands, "o" for options)
(pprof) top
Showing nodes accounting for 74.54ms, 100% of 74.54ms total
flat flat% sum% cum cum%
74.54ms 100% 100% 74.54ms 100% sync.(*Mutex).Lock
0 0% 100% 74.54ms 100% main.main.func1
同样的,我们也可以调用 list
命令查看具体的阻塞情况,执行方式和排查模式与先前概述的一致。
接下来我们继续使用前面的示例程序,将其重新运行起来,然后在其它窗口执行下述命令:
$ wget http://127.0.0.1:6060/debug/pprof/profile
默认需要等待 30 秒,执行完毕后可在当前目录下发现采集的文件 profile,针对可视化界面我们有两种方式可进行下一步分析:
1 . 方法一(推荐):该命令将在所指定的端口号运行一个 PProf 的分析用的站点。
$ go tool pprof -http=:6001 profile
2 . 方法二:通过 web 命令将以 svg 的文件格式写入图形,然后在 Web 浏览器中将其打开。
$ go tool pprof profile
Type: cpu
Time: Feb 1, 2020 at 12:09pm (CST)
Duration: 30s, Total samples = 60ms ( 0.2%)
Entering interactive mode (type "help" for commands, "o" for options)
(pprof) web
如果出现错误提示 Could not execute dot; may need to install graphviz.
,那么意味着你需要安装 graphviz
组件。
另外方法一所运行的站点,实际上包含了方法二的内容(svg图片),并且更灵活,因此非特殊情况,我们会直接使用方法一的方式运行站点来做观察和分析。
通过 PProf 所提供的可视化界面,我们能够更方便、更直观的看到 Go 应用程序的调用链、使用情况等。另外在 View 菜单栏中,PProf 还支持多种分析方式的切换,如下:
view 菜单栏
接下来我们将基于 CPU Profiling 所抓取的 Profile 进行一一介绍,而其它 Profile 类型的分析模式也是互通的,只要我们了解了一种,其余的也就会了。
top 栏目
该视图与前面所讲解的 top
子命令的作用和含义是一样的,因此不再赘述。
graph 栏目
该视图展示的为整体的函数调用流程,框越大、线越粗、框颜色越鲜艳(红色)就代表它占用的时间越久,开销越大。相反若框颜色越淡,越小则代表在整体的函数调用流程中,它的开销是相对较小的。
因此我们可以用此视图去分析谁才是开销大头,它又是因为什么调用流程而被调用的。
peek 栏目
此视图相较于 Top 视图,增加了所属的上下文信息的展示,也就是函数的输出调用者/被调用者。
source 栏目
该视图主要是增加了面向源代码的追踪和分析,可以看到其开销主要消耗在哪里。
flame graph 概览
Flame Graph(火焰图)它是可动态的,调用顺序由上到下(A -> B -> C -> D),每一块代表一个函数、颜色越鲜艳(红)、区块越大代表占用 CPU 的时间更长。同时它也支持点击块深入进行分析。
我们选择页面上的 main.main.func1
区块,将会进入到其属下的下一层级,如下:
进一步查看 flame graph
这样子我们就可以根据不同函数的多维度层级进行分析,能够更好的观察其流转并发现问题。
在上述章节中,我们是通过在应用程序中埋入方法进行采集的,那么还有一种方式,能够更精准的剖析到你所想要分析的流程或函数。
首先我们将先前所编写的 Add 方法挪到独立的 package 中,命名为 add.go 文件,然后新建 add_test.go 文件,写入如下测试用例代码:
func TestAdd(t *testing.T) {
_ = Add("go-programming-tour-book")
}
func BenchmarkAdd(b *testing.B) {
for i := 0; i < b.N; i++ {
Add("go-programming-tour-book")
}
}
在完成代码编写后,我们回到命令行窗口执行如下采集命令:
$ go test -bench=. -cpuprofile=cpu.profile
执行完毕后会在当前命令生成 cpu.profile 文件,然后只需执行 go tool pprof
命令就可以进行查看了,如下图:
cpu profile
另外除了对 CPU 进行剖析以外,我们还可以调整选项,对内存情况进行分析,如下采集命令:
$ go test -bench=. -memprofile=mem.profile
接下来和上面一样,执行 go tool pprof
命令进行查看,如下图:
进一步查看
除了注入 http handler 和 go test 以外,我们还可以在程序中通过 pprof 所提供的 Lookup 方法来进行相关内容的采集和调用。
其一共支持六种类型,分别是:
具体代码如下:
type LookupType int8
const (
LookupGoroutine LookupType = iota
LookupThreadcreate
LookupHeap
LookupAllocs
LookupBlock
LookupMutex
)
func pprofLookup(lookupType LookupType, w io.Writer) error {
var err error
switch lookupType {
case LookupGoroutine:
p := pprof.Lookup("goroutine")
err = p.WriteTo(w, 2)
case LookupThreadcreate:
p := pprof.Lookup("threadcreate")
err = p.WriteTo(w, 2)
case LookupHeap:
p := pprof.Lookup("heap")
err = p.WriteTo(w, 2)
case LookupAllocs:
p := pprof.Lookup("allocs")
err = p.WriteTo(w, 2)
case LookupBlock:
p := pprof.Lookup("block")
err = p.WriteTo(w, 2)
case LookupMutex:
p := pprof.Lookup("mutex")
err = p.WriteTo(w, 2)
}
return err
}
接下来我们只需要对该方法进行调用就好了,其提供了 io.Writer
接口,也就是只要实现了对应的 Write 方法,我们可以将其写到任何支持地方去,如下:
...
func init() {
runtime.SetMutexProfileFraction(1)
runtime.SetBlockProfileRate(1)
}
func main() {
http.HandleFunc("/lookup/heap", func(w http.ResponseWriter, r *http.Request) {
_ = pprofLookup(LookupHeap, os.Stdout)
})
http.HandleFunc("/lookup/threadcreate", func(w http.ResponseWriter, r *http.Request) {
_ = pprofLookup(LookupThreadcreate, os.Stdout)
})
http.HandleFunc("/lookup/block", func(w http.ResponseWriter, r *http.Request) {
_ = pprofLookup(LookupBlock, os.Stdout)
})
http.HandleFunc("/lookup/goroutine", func(w http.ResponseWriter, r *http.Request) {
_ = pprofLookup(LookupGoroutine, os.Stdout)
})
_ = http.ListenAndServe("0.0.0.0:6060", nil)
}
在上述代码中,我们将采集结果写入到了控制台上,我们可以进行一下验证,调用 http://127.0.0.1:6060/lookup/heap
,控制台输出结果如下:
$ go run main.go
heap profile: 0: 0 [0: 0] @ heap/1048576
# runtime.MemStats
# Alloc = 180632
# TotalAlloc = 180632
# Sys = 69928960
# Lookups = 0
...
在我们的例子中,你会发现我们在引用上对 net/http/pprof
包进行了默认的初始化(也就是 _
),如果你曾经漏了,或者没加,你会发现压根调用不了 pprof 的相关接口,这是为什么呢,我们一起看看下面该包的初始化方法,如下:
func init() {
http.HandleFunc("/debug/pprof/", Index)
http.HandleFunc("/debug/pprof/cmdline", Cmdline)
http.HandleFunc("/debug/pprof/profile", Profile)
http.HandleFunc("/debug/pprof/symbol", Symbol)
http.HandleFunc("/debug/pprof/trace", Trace)
}
实际上 net/http/pprof
会在初始化函数中对标准库中 net/http
所默认提供的 DefaultServeMux 进行路由注册,源码如下:
var DefaultServeMux = &defaultServeMux
var defaultServeMux ServeMux
func HandleFunc(pattern string, handler func(ResponseWriter, *Request)) {
DefaultServeMux.HandleFunc(pattern, handler)
}
而我们在例子中使用的 HTTP Server,也是使用的标准库中默认提供的,因此便完美的结合在了一起,这也恰好也是最小示例的模式。
这时候你可能会注意到另外一个问题,那就是我们的实际项目中,都是有相对独立的 ServeMux 的,这时候我们只要仿照着将 pprof 对应的路由注册进去就好了,如下:
mux := http.NewServeMux()
mux.HandleFunc("/debug/pprof/", pprof.Index)
mux.HandleFunc("/debug/pprof/cmdline", pprof.Cmdline)
mux.HandleFunc("/debug/pprof/profile", pprof.Profile)
mux.HandleFunc("/debug/pprof/symbol", pprof.Symbol)
mux.HandleFunc("/debug/pprof/trace", pprof.Trace)
在本文中我们详细的介绍了 Go 语言中 pprof 的使用,针对一些常用的套件均进行了说明。而 pprof 在我们平时的性能剖析,问题排查上都占据着非常重要的角色。
在日常只需要根据合理的排查思路,相信你一定能够根据在 pprof 中的蛛丝马迹,解决那些或大或小的问题,实现准点下班!
本文由哈喽比特于3年以前收录,如有侵权请联系我们。
文章来源:https://mp.weixin.qq.com/s/3rGmoRkdPNd4zFly--ZVCw
京东创始人刘强东和其妻子章泽天最近成为了互联网舆论关注的焦点。有关他们“移民美国”和在美国购买豪宅的传言在互联网上广泛传播。然而,京东官方通过微博发言人发布的消息澄清了这些传言,称这些言论纯属虚假信息和蓄意捏造。
日前,据博主“@超能数码君老周”爆料,国内三大运营商中国移动、中国电信和中国联通预计将集体采购百万台规模的华为Mate60系列手机。
据报道,荷兰半导体设备公司ASML正看到美国对华遏制政策的负面影响。阿斯麦(ASML)CEO彼得·温宁克在一档电视节目中分享了他对中国大陆问题以及该公司面临的出口管制和保护主义的看法。彼得曾在多个场合表达了他对出口管制以及中荷经济关系的担忧。
今年早些时候,抖音悄然上线了一款名为“青桃”的 App,Slogan 为“看见你的热爱”,根据应用介绍可知,“青桃”是一个属于年轻人的兴趣知识视频平台,由抖音官方出品的中长视频关联版本,整体风格有些类似B站。
日前,威马汽车首席数据官梅松林转发了一份“世界各国地区拥车率排行榜”,同时,他发文表示:中国汽车普及率低于非洲国家尼日利亚,每百户家庭仅17户有车。意大利世界排名第一,每十户中九户有车。
近日,一项新的研究发现,维生素 C 和 E 等抗氧化剂会激活一种机制,刺激癌症肿瘤中新血管的生长,帮助它们生长和扩散。
据媒体援引消息人士报道,苹果公司正在测试使用3D打印技术来生产其智能手表的钢质底盘。消息传出后,3D系统一度大涨超10%,不过截至周三收盘,该股涨幅回落至2%以内。
9月2日,坐拥千万粉丝的网红主播“秀才”账号被封禁,在社交媒体平台上引发热议。平台相关负责人表示,“秀才”账号违反平台相关规定,已封禁。据知情人士透露,秀才近期被举报存在违法行为,这可能是他被封禁的部分原因。据悉,“秀才”年龄39岁,是安徽省亳州市蒙城县人,抖音网红,粉丝数量超1200万。他曾被称为“中老年...
9月3日消息,亚马逊的一些股东,包括持有该公司股票的一家养老基金,日前对亚马逊、其创始人贝索斯和其董事会提起诉讼,指控他们在为 Project Kuiper 卫星星座项目购买发射服务时“违反了信义义务”。
据消息,为推广自家应用,苹果现推出了一个名为“Apps by Apple”的网站,展示了苹果为旗下产品(如 iPhone、iPad、Apple Watch、Mac 和 Apple TV)开发的各种应用程序。
特斯拉本周在美国大幅下调Model S和X售价,引发了该公司一些最坚定支持者的不满。知名特斯拉多头、未来基金(Future Fund)管理合伙人加里·布莱克发帖称,降价是一种“短期麻醉剂”,会让潜在客户等待进一步降价。
据外媒9月2日报道,荷兰半导体设备制造商阿斯麦称,尽管荷兰政府颁布的半导体设备出口管制新规9月正式生效,但该公司已获得在2023年底以前向中国运送受限制芯片制造机器的许可。
近日,根据美国证券交易委员会的文件显示,苹果卫星服务提供商 Globalstar 近期向马斯克旗下的 SpaceX 支付 6400 万美元(约 4.65 亿元人民币)。用于在 2023-2025 年期间,发射卫星,进一步扩展苹果 iPhone 系列的 SOS 卫星服务。
据报道,马斯克旗下社交平台𝕏(推特)日前调整了隐私政策,允许 𝕏 使用用户发布的信息来训练其人工智能(AI)模型。新的隐私政策将于 9 月 29 日生效。新政策规定,𝕏可能会使用所收集到的平台信息和公开可用的信息,来帮助训练 𝕏 的机器学习或人工智能模型。
9月2日,荣耀CEO赵明在采访中谈及华为手机回归时表示,替老同事们高兴,觉得手机行业,由于华为的回归,让竞争充满了更多的可能性和更多的魅力,对行业来说也是件好事。
《自然》30日发表的一篇论文报道了一个名为Swift的人工智能(AI)系统,该系统驾驶无人机的能力可在真实世界中一对一冠军赛里战胜人类对手。
近日,非营利组织纽约真菌学会(NYMS)发出警告,表示亚马逊为代表的电商平台上,充斥着各种AI生成的蘑菇觅食科普书籍,其中存在诸多错误。
社交媒体平台𝕏(原推特)新隐私政策提到:“在您同意的情况下,我们可能出于安全、安保和身份识别目的收集和使用您的生物识别信息。”
2023年德国柏林消费电子展上,各大企业都带来了最新的理念和产品,而高端化、本土化的中国产品正在不断吸引欧洲等国际市场的目光。
罗永浩日前在直播中吐槽苹果即将推出的 iPhone 新品,具体内容为:“以我对我‘子公司’的了解,我认为 iPhone 15 跟 iPhone 14 不会有什么区别的,除了序(列)号变了,这个‘不要脸’的东西,这个‘臭厨子’。