Midk9t's Blog

记录如何用gluetun+litellm搭建身处海外的大模型网关

大家新年快乐🧨🧨🧨适逢春节,终于有点时间更新下博客了(说的跟平时很忙似的) 最近在折腾大模型相关的各种技术,毕竟AI是时代趋势,现在的工作又已经涉及到了,不得不努力更紧一点了,不敢懈怠,现在的技术迭代实在太快了,还没来得及消化新模型的能力,新技术的原理和应用,下一波就接踵而至。

kube-backup: 基于ArgoWorkflow与Restic的k8s简单备份方案

前言 又双叒叕好久没写了哈哈哈哈。 生活有了变化,时间开始不太够花了。但是话又说回来,一些习惯或者兴趣确实是时间充裕,人开始无聊的时候才会想要去做,以前会觉得这些兴趣爱好就不是自己真心喜欢的。但是现在想来,或许不应该把想做的事情太认真对待,管它喜不喜欢呢,我当下是想做的,就花心思认真做好,就够了。

GitOps与ArgoCD入门

何为GitOps 在云原生时代,云原生应用的部署与配置很大程度上已经是声明式的了——工程师编写deployment、service与configmap等YAML文件来声明应用在k8s上的部署状态,然后交给各种controller来计算需要执行的变更动作,并应用到集群上,使得集群的状态最终与声明的文件保持一致。我想使用过传统虚拟机部署的读者不难明白这种声明式运维模型的优势:

Prometheus in k8s(二) —— 可视化与告警

监控可视化——Grafana 上一篇笔记中,我们使用了kube-prometheus快速在集群内部署了一套prom监控全家桶,它可以全自动地用node-exporter、kube-state-metrics、cadvisor等组件对集群暴露的各个维度的数据进行抓取。那么在抓取数据后,假如我们希望把它们进行可视化,做成数据大屏,这个时候,全家桶自带的grafana就派上用场了。

Prometheus in k8s(一) —— 使用kube-prometheus快速部署监控体系

前言 又好久没写博客了🤣真的不能把这个习惯丢掉啊,这次来记录一下在k8s集群上搭建监控体系的过程。 入职应用运维快半年了,逐渐发现开发只是IT团队的冰山一角,它固然至关重要,但背后支撑它能够露出水面的,是infra、运维、产品等多团队的同心协力。而就运维团队而言 ,对运行中应用进行即时监控与事件告警,可以说是关键能力之一。这个系列的主要目的,就是记录如何在k8s集群中搭建云原生的prometheus监控体系,在接下来的几篇博文内,将记录如何在自建k8s集群上部署prometheus operator,部署prom、grafana等实例,暴露web服务,实现监控数据持久化乃至最后实现对集群内外的应用服务进行监控告警。