K8sGPT é uma ferramenta CLI de código aberto que combina expertise SRE com capacidades de IA para diagnosticar e remediar automaticamente problemas em clusters Kubernetes. Oferece 12+ analisadores integrados, anonimização de dados e suporte a modelos de IA locais como Ollama. Integra-se com Claude Desktop via servidor MCP.




Gerenciar clusters Kubernetes é uma tarefa complexa que exige conhecimento profundo em SRE (Site Reliability Engineering). Quando uma aplicação entra em estado Pending, quando um Pod entra em CrashLoopBackOff, ou quando serviços enfrentam problemas de conectividade, a排查 (diagnóstico) pode ser demorada e frustrante — especialmente para equipes que não contam com especialistas certificados em Kubernetes.
K8sGPT é uma ferramenta CLI de código aberto que transforma essa realidade. O projeto aplica o conceito de "SRE como código", codificando anos de experiência em análise de problemas em analyzers modulares que, combinados com a capacidade de raciocínio de Large Language Models (LLMs), oferecem diagnóstico inteligente e sugestões de correção em linguagem natural.
A proposta é democratizar o acesso ao conhecimento de SRE. Enquanto ferramentas tradicionais de monitoramento alertam sobre problemas, o K8sGPT vai além: identifica a causa raiz, explica o que está acontecendo em termos compreensíveis e sugere ações concretas para resolução. A ferramenta já é utilizada por empresas como Spectro Cloud, Nethopper e Upstage AI, e conta com uma comunidade ativa no GitHub.
Com mais de 12 analyzers内置 cobrindo os principais recursos do Kubernetes — incluindo Pod, Service, Deployment, Ingress, StatefulSet e muito mais — o K8sGPT se adapta desde ambientes de desenvolvimento locais até operações de produção em escala enterprise.
A arquitetura do K8sGPT foi projetada para ser extensível e modular. Cada analyzer é responsável por inspecionar um tipo específico de recurso do Kubernetes, aplicando regras de validação baseadas em boas práticas operacionais. Quando combinado com um LLM, o sistema traduz os resultados técnicos em explicações acessíveis.
O coração do produto é o motor de análise alimentado por IA. Ao executar k8sgpt analyze, a ferramenta varre o cluster identificando anomalias nos recursos configurados. O modo stats exibe o tempo de execução de cada analyzer, permitindo otimização de performance em ambientes com muitos recursos. Para obter explicações detalhadas, basta adicionar a flag --explain, e o LLM escolhido gera um relatório em linguagem natural com causa raiz e recomendações de remediation.
A segurança de dados é uma preocupação legítima em ambientes de produção. O K8sGPT inclui um recurso de anonimização automática que substitui nomes de objetos, labels e outros identificadores sensíveis por placeholders reversíveis antes de enviar qualquer informação ao backend de AI. Essa proteção abrange mais de 12 tipos de recursos: StatefulSet, Service, PodDisruptionBudget, Node, NetworkPolicy, Ingress, HPA, Deployment, CronJob, entre outros.
A flexibilidade na escolha do provedor de AI é um diferencial importante. O K8sGPT suporta integração com:
A configuração é feita via comando k8sgpt auth, que armazena as credenciais de forma segura no arquivo de configuração local.
O K8sGPT pode aplicar automaticamente as correções sugeridas quando a flag --autoremediation é ativada. O usuário mantém controle total sobre o processo, podendo revisar cada ação antes da execução.
O Model Context Protocol (MCP) é uma especificação emergente para integração entre ferramentas de IA e sistemas externos. O K8sGPT implementa um servidor MCP completo que expõe:
O servidor pode operar em modo Stdio (k8sgpt serve --mcp) para integração com Claude Desktop, ou em modo HTTP (k8sgpt serve --mcp --mcp-http --mcp-port 8089) para implantações mais complexas.
Para monitoramento contínuo em produção, o k8sgpt-operator permite rodar o K8sGPT diretamente dentro do cluster Kubernetes. Ele se integra com Prometheus e Alertmanager, permitindo que alertas de análise sejam disparados automaticamente quando problemas são detectados.
A arquitetura suporta extensibilidade total. Desenvolvedores podem criar analyzers personalizados seguindo um schema definido, expondo-os via serviço gRPC. O projeto host-analyzer (implementado em Rust) serve como exemplo prático de como estender as capacidades nativas.
Em ambientes com múltiplos clusters, o caching remoto reduz chamadas desnecessárias à API e custos de AI. O K8sGPT suporta AWS S3, Azure Blob Storage e Google Cloud Storage como backends de cache.
O K8sGPT atende diferentes perfis de usuários, desde desenvolvedores individuais até equipes de SRE enterprise. A seguir, apresentamos os cenários mais comuns de uso:
Quando uma aplicação apresenta problemas no cluster — um Pod preso em Pending, um Deployment com ReplicaSets não disponíveis, ou serviços com erros de conexão — a команда k8sgpt analyze --explain é executada. Em segundos, o sistema retorna não apenas o diagnóstico técnico, mas uma explicação clara do que está acontecendo e qual a ação recomendada. Isso reduz drasticamente o tempo de MTTR (Mean Time to Recovery), especialmente para equipes que estão aprendendo Kubernetes.
Para operações que exigem monitoramento proativo, o k8sgpt-operator pode ser implantado no cluster com análise programada. Configurando regras de tempo em tempo (cron-style), a equipe recebe alertas antes que problemas críticos afetem os usuários finais. A integração com Prometheus permite visualizar métricas de saúde no mesmo painel usado para monitorar outros serviços.
Em ambientes regulados (financeiro, saúde, governo), enviar dados do cluster para APIs externas pode ser inviável. O K8sGPT oferece duas soluções: usar a flag --anonymize para enviar apenas dados mascarados, ou executar com Ollama rodando localmente — dessa forma, nenhuma informação sai do ambiente DMZ da empresa.
Para desenvolvedores que preferem interação por linguagem natural, configurar o MCP Server (k8sgpt serve --mcp) permite perguntar ao Claude Desktop coisas como "Qual é o status dos meus pods no namespace production?" ou "Me mostre os eventos recentes de erro no cluster". O assistente utiliza as ferramentas expostas pelo K8sGPT para executar operações reais.
Equipes que operam clusters em AWS (EKS), GCP (GKE), Azure (AKS) ou soluções on-premises enfrentam inconsistências na forma como cada provedor reporta erros. O K8sGPT normaliza a experiência de diagnóstico, permitindo que a mesma команда e o mesmo fluxo de trabalho sejam aplicadosindependentente de onde o cluster está hospedado.
Para tarefas diárias de troubleshooting, o modo CLI local é suficiente e mais rápido. Para monitoramento contínuo em produção, implemente o k8sgpt-operator com integração a Prometheus — assim você recebe alertas proativos sem precisar executar comandos manualmente.
A instalação do K8sGPT é simples e segue os padrões do ecossistema de ferramentas CLI:
macOS / Linux (via Homebrew):
brew install k8sgpt
Windows: Baixe o binário .exe do repositório GitHub e adicione ao PATH do sistema.
Kubernetes (Operator):
kubectl apply -f https://operator.k8sgpt.ai/install.yaml
Após a instalação, configure o provedor de AI de sua preferência:
# Configurar OpenAI
k8sgpt auth add openai
# Configurar Ollama (local)
k8sgpt auth add ollama
# Configurar Azure OpenAI
k8sgpt auth add azure
O arquivo de configuração será criado automaticamente no diretório padrão:
~/Library/Application Support/k8sgpt/k8sgpt.yaml~/.config/k8sgpt/k8sgpt.yaml%LOCALAPPDATA%/k8sgpt/k8sgpt.yaml# Análise básica do cluster
k8sgpt analyze
# Análise com explicação em linguagem natural
k8sgpt analyze --explain
# Ativar anonimização de dados
k8sgpt analyze --explain --anonymize
# Ver estatísticas de performance dos analyzers
k8sgpt analyze --explain --show-stats
# Iniciar MCP Server (modo Stdio)
k8sgpt serve --mcp
# Iniciar MCP Server (modo HTTP)
k8sgpt serve --mcp --mcp-http --mcp-port 8089
Para usar o K8sgpt com Claude Desktop, adicione a configuração no arquivo claude_desktop_config.json:
{
"mcpServers": {
"k8sgpt": {
"command": "k8sgpt",
"args": ["serve", "--mcp"]
}
}
}
Em ambientes de produção, sempre utilize a flag --anonymize para proteger dados sensíveis antes de enviar informações ao backend de AI. Se sua política de segurança exige que dados nunca saiam da rede local, prefira Ollama como provedor — toda a processamento acontece no seu ambiente.
O design do K8sGPT separa claramente a lógica de coleta de dados da lógica de análise. Cada analyzer implementa uma interface específica que retorna uma lista de "results" — problemas identificados no recurso analisado. Essa abordagem permite que a comunidade contribua novos analyzers sem modificar o core da aplicação.
Os analyzers nativos incluem:
podAnalyzer — valida estado de pods, eventos, restartspvcAnalyzer — verifica claims e volumesserviceAnalyzer — analisa conectividade e endpointsdeploymentAnalyzer — valida réplicas e disponibilidadeingressAnalyzer — verifica configuração de rotaseventAnalyzer — analisa eventos recentes do clusternodeAnalyzer — avalia saúde de nodesmutatingWebhookAnalyzer / validatingWebhookAnalyzer — valida webhookscronJobAnalyzer — verifica jobs agendadosOs analyzers opcionais expandem a cobertura para HPA, NetworkPolicy, Gateway API, Log Analysis e Security Analysis — úteis em ambientes que utilizam essas funcionalidades avançadas.
O MCP Server do K8sGPT segue a especificação oficial do Model Context Protocol, expondo ferramentas e recursos de forma padronizada. Isso garante compatibilidade não apenas com Claude Desktop, mas com qualquer cliente MCP futuro. A arquitetura stdio é ideal para integração desktop, enquanto o modo HTTP escala melhor em ambientes server-side.
O projeto mantém altos padrões de segurança:
O suporte a Ollama elimina completamente a dependência de APIs externas, tornando o K8sGPT adequado para ambientes air-gapped ou com requisitos rigorosos de soberania de dados.
O sistema de cache remoto utiliza protocolos nativos de cada provedor (S3, Azure Blob, GCS), permitindo que múltiplos membros da equipe ou múltiplos clusters compartilhem resultados de análise sem refazer chamadas — economizando tempo e custos de API.
Prometheus e Grafana são excellent para coleta e visualização de métricas — eles respondem "o que está acontecendo" com dashboards e alertas. O K8sGPT complementa essas ferramentas ao responder "por que está acontecendo" e "como resolver". Enquanto ferramentas tradicionais mostram que um Pod está com alto uso de CPU, o K8sGPT analisa o contexto (eventos, logs, configuração) e explica a causa raiz em linguagem natural.
Sim, o K8sGPT oferece múltiplas camadas de proteção. A flag --anonymize substitui nomes de recursos, labels e outros identificadores por hashes reversíveis antes de enviar qualquer dado ao backend de AI. Para máxima segurança, utilize Ollama rodando localmente — assim o processamento de AI acontece inteiramente na sua infraestrutura, sem dados deixando o ambiente.
O K8sGPT integra com os principais provedores de mercado: OpenAI (GPT-4o), Azure OpenAI, Google Vertex AI, Amazon Bedrock, IBM WatsonX, Cohere, Hugging Face e Ollama (modelos locais). A escolha depende das suas necessidades de privacidade, custo e disponibilidade regional.
Execute k8sgpt serve --mcp para iniciar o servidor MCP em modo stdio. Depois, adicione a configuração ao arquivo claude_desktop_config.json conforme mostrado na seção de Quick Start. A partir daí, você pode fazer perguntas em linguagem natural como "quais pods estão falhando no namespace production?" e o Claude utilizará as ferramentas do K8sGPT para consultar o cluster e retornar a resposta.
Não é obrigatório. O K8sGPT funciona perfeitamente como ferramenta CLI local, lendo configurações via kubeconfig padrão. Para monitoramento contínuo em produção, recomenda-se instalar o k8sgpt-operator, que permite análise programada e integração com Prometheus/Alertmanager.
Sim, o K8sGPT é um projeto open source sob licença Apache 2.0 — gratuito para uso comercial e pessoal. Você só paga pelos custos de API se utilizar provedores de AI externos (OpenAI, Azure, etc.). Se preferir não pagar nada, use Ollama com modelos locais como Llama3 ou Mistral.
Descubra as últimas ferramentas de IA e aumente sua produtividade hoje.
Explorar todas as ferramentasK8sGPT é uma ferramenta CLI de código aberto que combina expertise SRE com capacidades de IA para diagnosticar e remediar automaticamente problemas em clusters Kubernetes. Oferece 12+ analisadores integrados, anonimização de dados e suporte a modelos de IA locais como Ollama. Integra-se com Claude Desktop via servidor MCP.
Um app. Seu negócio de coaching inteiro
Construtor de sites com IA para todos
Fotos de dating com IA que realmente funcionam
Diretório popular de ferramentas de IA para descoberta e promoção
Plataforma de lançamento de produtos para fundadores com backlinks SEO
Domine a criação de conteúdo com IA com nosso guia completo. Descubra as melhores ferramentas de IA, fluxos de trabalho e estratégias para criar conteúdo de alta qualidade mais rápido em 2026.
Procurando ferramentas gratuitas de IA para programar? Testamos 8 dos melhores assistentes de código com IA gratuitos de 2026 — de extensões para VS Code a alternativas open-source ao GitHub Copilot.