Redian新闻
>
开箱即用~ 神器 Prometheus 如何深入浅出?

开箱即用~ 神器 Prometheus 如何深入浅出?

公众号新闻

来源:本文转自公众号腾讯云开发者

链接:https://mp.weixin.qq.com/s?__biz=MzI2NDU4OTExOQ==&mid=2247537945&idx=1&sn=d51d07540f96441cd96ee708480c4646&scene=21&token=1175690808&lang=zh_CN#wechat_redirect

一、简介

Prometheus 是古希腊神话里泰坦族的一名神明,名字的意思是“先见之明”,下图中是 Prometheus 被宙斯惩罚,饱受肝脏日食夜长之苦。
下面就是我们 CRUD Boy 所了解的 Prometheus,下面是其官网封面图引导语:From metrics to insight,从指标到洞察力,通过指标去洞察你的系统,为我们的系统提供指标收集和监控的开源解决方案。也就是说,Prometheus是一个数据监控的解决方案,让我们能随时掌握系统运行的状态,快速定位问题和排除故障。
Prometheus发展速度很快,12年开发完成,16年加入CNCF,成为继 K8s 之后第二个 CNCF 托管的项目,目前 Github 49.3k的🌟,而且社区很活跃,维护频率很高,基本稳定在1个月1个小版本的迭代速度。

二、整体生态

Prometheus 提供了从指标暴露,到指标抓取、存储和可视化,以及最后的监控告警等一系列组件。
每一个被 Prometheus 监控的服务都是一个 Job,Prometheus 为这些 Job 提供了官方的 SDK,利用这个 SDK 可以自定义并导出自己的业务指标,也可以使用 Prometheus 官方提供的各种常用组件和中间件的 Exporter(比如常用的 MySQL,Consul 等等)。
对于短时间执行的脚本任务或者不好直接 Pull 指标的服务,Prometheus提供了PushGateWay 网关给这些任务将服务指标主动推 Push 到网关,Prometheus 再从这个网关里 Pull 指标。

(二)指标抓取

上面提到了Push和Pull,其实这是两种指标抓取模型。
  • Pull 模型监控服务主动拉取被监控服务的指标。
被监控服务一般通过主动暴露 metrics 端口或者通过 Exporter 的方式暴露指标,监控服务依赖服务发现模块发现被监控服务,从而去定期的抓取指标。
  • Push模型被监控服务主动将指标推送到监控服务,可能需要对指标做协议适配,必须得符合监控服务要求的指标格式。

对于 Prometheus 中的指标抓取,采用的是 Pull 模型,默认是一分钟去拉取一次指标,通过 Prometheus.yaml 配置文件中的scrape_interval 配置项配置,Prometheus 对外都是用的 Pull 模型,一个是 Pull Exporter 的暴露的指标,一个是 Pull PushGateway 暴露的指标。

(三)指标存储和查询

指标抓取后会存储在内置的时序数据库中,Prometheus 也提供了 PromQL 查询语言给我们做指标的查询,我们可以在 Prometheus 的 WebUI 上通过 PromQL,可视化查询我们的指标,也可以很方便的接入第三方的可视化工具,例如 grafana。

(四)监控告警

Prometheus 提供了 alertmanageer 基于 promql 来做系统的监控告警,当 promql 查询出来的指标超过我们定义的阈值时,prometheus 会发送一条告警信息到alertmanager,manager 会将告警下发到配置好的邮箱或者微信。

三、工作原理

Prometheus 的从被监控服务的注册到指标抓取到指标查询的流程分为五个步骤:

(一)服务注册

被监控服务在 Prometheus 中是一个 Job 存在,被监控服务的所有实例在 Prometheus 中是一个 target 的存在,所以被监控服务的注册就是在 Prometheus 中注册一个 Job 和其所有的 target,这个注册分为:静态注册和动态注册
静态注册:静态的将服务的 IP 和抓取指标的端口号配置在 Prometheus yaml 文件的scrape_configs配置下:
scrape_configs: - job_name: "prometheus" static_configs: - targets: ["localhost:9090"]
以上就是注册了一个名为 prometheus 的服务,这个服务下有一个实例,暴露的抓取地址是 localhost:9090。
动态注册:动态注册就是在 Prometheus yaml 文件的 scrape_configs 配置下配置服务发现的地址和服务名,Prometheus 会去该地址,根据你提供的服务名动态发现实例列表,在 Prometheus 中,支持 consul,DNS,文件,K8s 等多种服务发现机制。基于 consul 的服务发现:
- job_name: “node_export_consul”metrics_path: /node_metricsscheme: httpconsul_sd_configs:- server: localhost:8500services:- node_exporter
我们 consul 的地址就是:localhost:8500,服务名是node_exporter,在这个服务下有一个exporter实例:localhost:9600。
注意:如果是动态注册,最好加上这两配置,静态注册指标拉取的路径会默认的帮我们指定为 metrics_path:/metrics,所以如果暴露的指标抓取路径不同或者是动态的服务注册,最好加上这两个配置。不然会报错“INVALID“ is not a valid start token,演示下,百度了一下,这里可能是数据格式不统一导致。
metrics_path: /node_metricsscheme: http
最后可以在 webUI 中查看发现的实例:
目前,Prometheus 支持多达二十多种服务发现协议:
<azure_sd_config><consul_sd_config><digitalocean_sd_config><docker_sd_config><dockerswarm_sd_config><dns_sd_config><ec2_sd_config><openstack_sd_config><file_sd_config><gce_sd_config><hetzner_sd_config><http_sd_config><kubernetes_sd_config><kuma_sd_config><lightsail_sd_config><linode_sd_config><marathon_sd_config><nerve_sd_config><serverset_sd_config><triton_sd_config><eureka_sd_config><scaleway_sd_config><static_config>

(二)配置更新

在更新完 Prometheus 的配置文件后,我们需要更新我们的配置到程序内存里,这里的更新方式有两种,第一种简单粗暴,就是重启 Prometheus,第二种是动态更新的方式。如何实现动态的更新 Prometheus 配置。
第一步:首先要保证启动 Prometheus 的时候带上启动参数:--web.enable-lifecycle
prometheus --config.file=/usr/local/etc/prometheus.yml --web.enable-lifecycle
第二步去更新我们的 Prometheus 配置:
curl -v --request POST 'http://localhost:9090/-/reload'
第三步:更新完配置后,我们可以通过 Post 请求的方式,动态更新配置:
原理:
Prometheus 在 web 模块中,注册了一个 handler:
if o.EnableLifecycle { router.Post("/-/quit", h.quit) router.Put("/-/quit", h.quit) router.Post("/-/reload", h.reload) // reload配置 router.Put("/-/reload", h.reload) }
通过h.reload这个handler方法实现:这个handler就是往一个channle中发送一个信号:
func (h *Handler) reload(w http.ResponseWriter, r *http.Request) { rc := make(chan error) h.reloadCh <- rc // 发送一个信号到channe了中 if err := <-rc; err != nil { http.Error(w, fmt.Sprintf("failed to reload config: %s", err), http.StatusInternalServerError) }}
在 main 函数中会去监听这个 channel,只要有监听到信号,就会做配置的 reload,重新将新配置加载到内存中
case rc := <-webHandler.Reload(): if err := reloadConfig(cfg.configFile, cfg.enableExpandExternalLabels, cfg.tsdb.EnableExemplarStorage, logger, noStepSubqueryInterval, reloaders...); err != nil { level.Error(logger).Log("msg", "Error reloading config", "err", err) rc <- err } else { rc <- nil }

(三)指标抓取和存储

Prometheus 对指标的抓取采取主动 Pull 的方式,即周期性的请求被监控服务暴露的 metrics 接口或者是 PushGateway,从而获取到 Metrics 指标,默认时间是 15s抓取一次,配置项如下:
global: scrape_interval: 15s
抓取到的指标会被以时间序列的形式保存在内存中,并且定时刷到磁盘上,默认是两个小时回刷一次。并且为了防止 Prometheus 发生崩溃或重启时能够恢复数据,Prometheus 也提供了类似 MySQL 中 binlog 一样的预写日志,当 Prometheus 崩溃重启时,会读这个预写日志来恢复数据。

四、Metric指标

(一)数据模型

Prometheus 采集的所有指标都是以时间序列的形式进行存储,每一个时间序列有三部分组成:
  • 指标名和指标标签集合:metric_name{
  • 时间戳:描述当前时间序列的时间,单位:毫秒。
  • 样本值:当前监控指标的具体数值,比如http_request_total的值就是请求数是多少。
可以通过查看 Prometheus 的 metrics 接口查看所有上报的指标:
所有的指标也都是通过如下所示的格式来标识的:
# HELP // HELP:这里描述的指标的信息,表示这个是一个什么指标,统计什么的# TYPE // TYPE:这个指标是什么类型的<metric name>{<label name>=<label value>, ...} value // 指标的具体格式,<指标名>{标签集合} 指标值

(二)指标模型

Prometheus 底层存储上其实并没有对指标做类型的区分,都是以时间序列的形式存储,但是为了方便用户的使用和理解不同监控指标之间的差异,Prometheus 定义了4种不同的指标类型:计数器 counter,仪表盘 gauge,直方图 histogram,摘要summary。
Counter计数器:
Counter 类型和 redis 的自增命令一样,只增不减,通过 Counter 指标可以统计Http请求数量,请求错误数,接口调用次数等单调递增的数据。同时可以结合increase 和 rate 等函数统计变化速率,后续我们会提到这些内置函数。
Gauge仪表盘:
和 Counter 不同,Gauge 是可增可减的,可以反映一些动态变化的数据,例如当前内存占用,CPU利用,Gc次数等动态可上升可下降的数据,在Prometheus上通过Gauge,可以不用经过内置函数直观的反映数据的变化情况,如下图表示堆可分配的空间大小:
上面两种是数值指标,代表数据的变化情况,Histogram和Summary是统计类型的指标,表示数据的分布情况。
Histogram直方图:
Histogram是一种直方图类型,可以观察到指标在各个不同的区间范围的分布情况,如下图所示:可以观察到请求耗时在各个桶的分布。
有一点要注意的是,Histogram是累计直方图,即每一个桶的是只有上区间,例如下图表示小于0.1毫秒(le=“0.1”)的请求数量是18173个,小于 0.2毫秒(le=“0.2”)的请求是18182 个,在le=“0.2”这个桶中是包含了 le=“0.1”这个桶的数据,如果我们要拿到0.1毫秒到0.2毫秒的请求数量,可以通过两个桶想减得到。
Summary摘要
Summary也是用来做统计分析的,和Histogram区别在于,Summary直接存储的就是百分位数,如下所示:可以直观的观察到样本的中位数,P90和P99。
Summary的百分位数是客户端计算好直接让Prometheus抓取的,不需要 Prometheus计算,直方图是通过内置函数histogram_quantile在 Prometheus 服务端计算求出。

(三)指标导出

指标导出有两种方式,一种是使用Prometheus社区提供的定制好的 Exporter对一些组件诸如MySQL,Kafka等的指标作导出,也可以利用社区提供的Client来自定义指标导出。
github.com/prometheus/client_golang/prometheus/promhttp
自定义 Prometheus exporter:
package mainimport ( “net/http”“github.com/prometheus/client_golang/prometheus/promhttp”)func main() { http.Handle(“/metrics”, promhttp.Handler()) http.ListenAndServe(“:8080”, nil)}
访问:http://localhost:8080/metrics,即可看到导出的指标,这里我们没有自定义任何的指标,但是能看到一些内置的Go的运行时指标和 promhttp 相关的指标,这个Client默认为我们暴露的指标,go_:以 go_为前缀的指标是关于 Go 运行时相关的指标,比如垃圾回收时间、goroutine 数量等,这些都是Go客户端库特有的,其他语言的客户端库可能会暴露各自语言的其他运行时指标。promhttp_:来自promhttp 工具包的相关指标,用于跟踪对指标请求的处理。
添加自定义指标:
package main
import ( "net/http"
"github.com/prometheus/client_golang/prometheus" "github.com/prometheus/client_golang/prometheus/promhttp")
func main() {
// 1.定义指标(类型,名字,帮助信息) myCounter := prometheus.NewCounter(prometheus.CounterOpts{ Name: "my_counter_total", Help: "自定义counter", }) // 2.注册指标 prometheus.MustRegister(myCounter) // 3.设置指标值 myCounter.Add(23)
http.Handle("/metrics", promhttp.Handler()) http.ListenAndServe(":8080", nil)}
运行:
模拟下在业务中上报接口请求量:
package main
import ( "fmt" "net/http"
"github.com/prometheus/client_golang/prometheus")
var ( MyCounter prometheus.Counter)
// init 注册指标func init() { // 1.定义指标(类型,名字,帮助信息) MyCounter = prometheus.NewCounter(prometheus.CounterOpts{ Name: "my_counter_total", Help: "自定义counter", }) // 2.注册指标 prometheus.MustRegister(MyCounter)}
// Sayhellofunc Sayhello(w http.ResponseWriter, r *http.Request) { // 接口请求量递增 MyCounter.Inc() fmt.Fprintf(w, "Hello Wrold!")}
main.go:
package main
import ( "net/http"
"github.com/prometheus/client_golang/prometheus/promhttp")
func main() {
http.Handle("/metrics", promhttp.Handler()) http.HandleFunc("/counter",Sayhello) http.ListenAndServe(":8080", nil)}
一开始启动时,指标 counter 是 0
调用:/counter 接口后,指标数据发生了变化,这样就可以简单实现了接口请求数的统计:
对于其他指标定义方式是一样的:
var ( MyCounter prometheus.Counter MyGauge prometheus.Gauge MyHistogram prometheus.Histogram MySummary prometheus.Summary)
// init 注册指标func init() { // 1.定义指标(类型,名字,帮助信息) MyCounter = prometheus.NewCounter(prometheus.CounterOpts{ Name: "my_counter_total", Help: "自定义counter", }) // 定义gauge类型指标 MyGauge = prometheus.NewGauge(prometheus.GaugeOpts{ Name: "my_gauge_num", Help: "自定义gauge", }) // 定义histogram MyHistogram = prometheus.NewHistogram(prometheus.HistogramOpts{ Name: "my_histogram_bucket", Help: "自定义histogram", Buckets: []float64{0.1,0.2,0.3,0.4,0.5}, // 需要指定桶 }) // 定义Summary MySummary = prometheus.NewSummary(prometheus.SummaryOpts{ Name: "my_summary_bucket", Help: "自定义summary", // 这部分可以算好后在set Objectives: map[float64]float64{ 0.5: 0.05, 0.9: 0.01, 0.99: 0.001, }, })
// 2.注册指标 prometheus.MustRegister(MyCounter) prometheus.MustRegister(MyGauge) prometheus.MustRegister(MyHistogram) prometheus.MustRegister(MySummary)}
上面的指标都是没有设置标签的,我们一般的指标都是带有标签的,如何设置指标的标签呢?
如果我要设置带标签的 counter 类型指标,只需要将原来的 NewCounter 方法替换为 NewCounterVec 方法即可,并且传入标签集合。
MyCounter *prometheus.CounterVec// 1.定义指标(类型,名字,帮助信息)MyCounter = prometheus.NewCounterVec( prometheus.CounterOpts{ Name: “my_counter_total”, Help: “自定义counter”, }, // 标签集合 []string{“label1”,”label2”},)// 带标签的set指标值MyCounter.With(prometheus.Labels{“label1”:”1”,”label2”:”2”}).Inc()
其他同理。

五、PromQL

刚刚提到了 Prometheus 中指标有哪些类型以及如何导出我们的指标,现在指标导出到 Prometheus 了,利用其提供的 PromQL 可以查询我们导出的指标。
PromQL 是 Prometheus 为我们提供的函数式的查询语言,查询表达式有四种类型:
  • 字符串:只作为某些内置函数的参数出现;
  • 标量:单一的数字值,可以是函数参数,也可以是函数的返回结果;
  • 瞬时向量:某一时刻的时序数据;
  • 区间向量:某一时间区间内的时序数据集合。

(一)瞬时查询

直接通过指标名即可进行查询,查询结果是当前指标最新的时间序列,比如查询Gc累积消耗的时间:
go_gc_duration_seconds_count
我们可以看到查询出来有多个同名指标结果 可以用{}做标签过滤查询:比如我们想查指定实例的指标:
go_gc_duration_seconds_count{instance="127.0.0.1:9600"}
而且也支持则表达式,通过=~指定正则表达式,如下所示:查询所有instance是localhost开头的指标
go_gc_duration_seconds_count{instance=~"localhost.*"}

(二)范围查询

范围查询的结果集就是区间向量,可以通过[]指定时间来做范围查询,查询5分钟内的Gc累积消耗时间:
go_gc_duration_seconds_count{}[5m]
注意:这里范围查询第一个点并不一定精确到刚刚好5分钟前的那个时序样本点,他是以5分钟作为一个区间,寻找这个区间的第一个点到最后一个样本点。
时间单位:
d:天,h:小时,m:分钟,ms:毫秒,s:秒,w:周,y:年
同样支持类似SQL中的offset查询,如下:查询一天前当前5分钟前的时序数据集:
go_gc_duration_seconds_count{}[5m] offset 1d

(三)内置函数

Prometheus内置了很多函数,这里主要记录下常用的几个函数的使用:
rate和irate函数:rate函数可以用来求指标的平均变化速率
rate函数=时间区间前后两个点的差 / 时间范围
一般rate函数可以用来求某个时间区间内的请求速率,也就是我们常说的QPS
但是rate函数只是算出来了某个时间区间内的平均速率,没办法反映突发变化,假设在一分钟的时间区间里,前50秒的请求量都是0到10左右,但是最后10秒的请求量暴增到100以上,这时候算出来的值可能无法很好的反映这个峰值变化。这个问题可以通过irate函数解决,irate函数求出来的就是瞬时变化率。
时间区间内最后两个样本点的差 / 最后两个样本点的时间差
可以通过图像看下两者的区别:irate函数的图像峰值变化大,rate函数变化较为平缓。
rate函数
irate函数
聚合函数:Sum() by() without()
也是上边的例子,我们在求指定接口的QPS的时候,可能会出现多个实例的QPS的计算结果,如下是存在多个接口,三个服务的QPS。
rate(demo_api_request_duration_seconds_count{job="demo", method="GET", status="200"}[5m])
但是这样直接的相加太笼统抽象了,可以配合 by 和 without 函数在 sum 的时候,基于某些标签分组,类似 SQL 中的 group by
例如,我可以根据请求接口标签分组:这样拿到的就是具体接口的QPS:
sum(rate(demo_api_request_duration_seconds_count{job="demo", method="GET", status="200"}[5m])) by(path)
也可以不根据接口路径分组:通过without指定:
sum(rate(demo_api_request_duration_seconds_count{job="demo", method="GET", status="200"}[5m])) without(path)
可以通过histogram_quantile函数做数据统计:可以用来统计百分位数:第一个参数是百分位,第二个histogram指标,这样计算出来的就是中位数,即P50
histogram_quantile(0.5,go_gc_pauses_seconds_total_bucket)
分享之前和同事一起发现的坑:
在刚刚写的自定义exporter上新增几个histogram的样本点:
MyHistogram.Observe(0.3)MyHistogram.Observe(0.4)MyHistogram.Observe(0.5)
histogram 的桶设置:
MyHistogram = prometheus.NewHistogram(prometheus.HistogramOpts{ Name: "my_histogram_bucket", Help: "自定义histogram", Buckets: []float64{0,2.5,5,7.5,10}, // 需要指定桶})
如果这样的话,所有指标都会直接进入到第一个桶,即0到2.5这个桶,如果我要计算中位数,那么这个中位数按照数学公式来算的话,肯定是在0到2.之间的,而且肯定是0.3到0.5之间。
我用histogram_quantile函数计算下:计算结果是1.25,其实已经不对了。
histogram_quantile(0.5,my_histogram_bucket_bucket)
我在计算下P99,等于2.475:
histogram_quantile(0.99,my_histogram_bucket_bucket)
我的指标都是不大于1的,为啥算出来的P50和P99都这么离谱呢?
这是因为Prometheus他是不保存你具体的指标数值的,他会帮你把指标放到具体的桶,但是他不会保存你指标的值,计算的分位数是一个预估的值,怎么预估呢?就是假设每个桶内的样本分布是均匀的,线性分布来计算的,比如刚刚的P50,其实就是算排在第50%位置的样本值,因为刚刚所有的数据都落在了第一个桶,那么他在计算的时候就会假定这个50%值在第一个桶的中点,他就会假定这个数就是0.5 2.5,P99就是第一个桶的99%的位置,他就会假定这个数就是0.99 2.5。
导致这个误差较大的原因就是我们的 bucket 设置的不合理。
重新定义桶:
// 定义histogramMyHistogram = prometheus.NewHistogram(prometheus.HistogramOpts{ Name: "my_histogram_bucket", Help: "自定义histogram", Buckets: []float64{0.1,0.2,0.3,0.4,0.5}, // 需要指定桶})
上报数据:
MyHistogram.Observe(0.1)MyHistogram.Observe(0.3)MyHistogram.Observe(0.4)
重新计算 P50,P99:
桶设置的越合理,计算的误差越小。

六、Grafana可视化

除了可以利用Prometheus提供的webUI可视化我们的指标外,还可以接入Grafana来做指标的可视化。
第一步,对接数据源:
配置好 prometheus 的地址:
第二步:创建仪表盘
编辑仪表盘:
在 metrics 处编写 PromQL 即可完成查询和可视化:
仪表盘编辑完后,可以导出对应的 json 文件,方便下次导入同样的仪表盘:
以上是我之前搭建的仪表盘:

七、监控告警

AlertManager 是 prometheus 提供的告警信息下发组件,包含了对告警信息的分组,下发,静默等策略。配置完成后可以在webui上看到对应的告警策略信息。告警规则也是基于 PromQL 进行定制的。
编写告警配置:当Http_srv这个服务挂了,Prometheus采集不到指标,并且持续时间1分钟,就会触发告警
groups:- name: simulator-alert-rule rules: - alert: HttpSimulatorDown expr: sum(up{job="http_srv"}) == 0 for: 1m labels: severity: critical
在prometheus.yml中配置告警配置文件,需要配置上alertmanager的地址和告警文件的地址
# Alertmanager configurationalerting: alertmanagers: - static_configs: - targets: ['localhost:9093']# Load rules once and periodically evaluate them according to the global 'evaluation_interval'.rule_files: - "alert_rules.yml" #- "first_rules.yml"
配置告警信息,例如告警发送地址,告警内容模版,分组策略等都在alertmanager的配置文件中配置:
global: smtp_smarthost: 'smtp.qq.com:465' smtp_from: '[email protected]' smtp_auth_username: '[email protected]' smtp_auth_password: 'xxxx' smtp_require_tls: false
route: group_interval: 1m repeat_interval: 1m receiver: 'mail-receiver'
# group_by //采用哪个标签作为分组# group_wait //分组等待的时间,收到报警不是立马发送出去,而是等待一段时间,看看同一组中是否有其他报警,如果有一并发送# group_interval //告警时间间隔# repeat_interval //重复告警时间间隔,可以减少发送告警的频率# receiver //接收者是谁# routes //子路由配置receivers:- name: 'mail-receiver' email_configs: - to: '[email protected]'
当我 kill 进程:
prometheus 已经触发告警:
在等待1分钟,如果持续还是符合告警策略,则状态为从 pending 变为 FIRING 会发送邮件到我的邮箱
此时我的邮箱收到了一条告警消息:
alertmanager 也支持对告警进行静默,在 alertmanager 的 WEBUI 中配置即可:
间隔了4分钟,没有收到告警,静默生效:
一个小时没有收到告警信息:

END

官方站点:www.linuxprobe.com

Linux命令大全:www.linuxcool.com

刘遄老师QQ:5604215

Linux技术交流群:2636170

(新群,火热加群中……)

想要学习Linux系统的读者可以点击"阅读原文"按钮来了解书籍《Linux就该这么学》,同时也非常适合专业的运维人员阅读,成为辅助您工作的高价值工具书!


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
一文带你了解 PrometheusCheckmate HATE: 10th Annual Chess-in-the- ParkClinical Nutrition Heats Up in China’s Pet Health Industry小扎深夜炸场,世界首款MR头显暴打Vision Pro!Meta版ChatGPT搬进「元宇宙」,网红神器眼镜高能现身Prometheus and the Ring of Fire究竟应该说someone faces problems还是problems face someone?英语句子什么时候用to do something,什么时候用doing something?Amid Uproar, Ctrip Pulls Plug on Women-Only Train Compartments5小时get大模型时代提效神器:写出高价值大模型Prompt!不到$100买Le Creuset!博主晒加拿大Winners、HomeSense疯狂折扣买名牌!腾讯开源的Markdown编辑器,开箱即用、轻量简洁、易扩展美国费城独立日游行(2011),齐聚一堂西雅图地区高端住宅开发商推荐(三)—— Steven D. Smith Custom Home谷歌新动作,ChromeOS将不再是原来的ChromeOS直播预告 | 阿里巴巴NLP算法专家王潇斌:开箱即用的文本理解大模型每天10句英语口语|The ball rolled down the hillAMD王宏强:700亿参数大模型单个GPU部署,做好AI软件和生态实现“开箱即用”丨GACS 2023《The Star Spangled Banner》&《七月的草原》字节跳动 DevMind:深入浅出万人规模效能度量平台的构建与演进COMPUT METH PROG BIO | 生物学年龄预测模型的构建搞懂 Prometheus 这四种指标类型,谁都可能成为监控老司机?速递 | Aleta Biotherapeutics 的CAR T 细胞激活剂 ALETA-001 获得 MHRA 临床试验授权深入浅出 OkHttp 源码解析及应用实践Llama深入浅出Prometheus 服务自动发现机制介绍Hurun China Metaverse Companies with the Greatest Potential 2023吴德耀与杜维明每天10句英语口语|How's the weather there today?“互联网”要写成the Internet还是the internet?历史小说《黄裳元吉》第一百零九章 无言The Mall at the Center of the Universe[单车] Enjoy the ride!Canyon Aeroad SLX7开箱WS15是个里程碑事件The Private Practice Heirs of China’s Socialist Aid Program700亿参数LLaMA2训练加速195%,开箱即用的8到512卡LLaMA2全流程方案来了!K8s CPU Limits 造成的事故,竟让 Prometheus 轻松解决了?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。