Quando alguém menciona Redis, a primeira associação ainda é cache. E por bons motivos, durante mais de uma década, o Redis foi sinônimo de "camada rápida entre aplicação e banco de dados". Mas os números de janeiro de 2026 contam uma história diferente: a empresa ultrapassou US$ 300 milhões em receita anual recorrente, e boa parte desse crescimento veio de workloads que não existiam três anos atrás.
O Redis está se reposicionando como "context engine", a camada de contexto em tempo real para aplicações de IA. Vector Sets, semantic caching, integração com frameworks como LangChain e Mem0: o roadmap recente é uma declaração clara de que o cache ficou pequeno.
Mas essa transformação não veio sem custo. Uma mudança de licença polêmica em 2024, a perda quase total de contribuidores externos e o surgimento do Valkey (um fork respaldado por AWS, Google e Oracle) criaram um cenário onde o Redis precisa provar que a reinvenção vale mais que a confiança perdida.
De US$ 200M a US$ 300M: os números por trás da virada
Quando Rowan Trollope assumiu como CEO em 2022, o Redis Inc. faturava US$ 200 milhões em ARR. Três anos depois, a empresa ultrapassou US$ 300 milhões, um crescimento de 50% que, para uma empresa de infraestrutura de dados, é expressivo.
Os números de clientes ajudam a entender a tração. São 12.000 clientes pagantes, com penetração em um terço das empresas do Fortune 100. O segmento de alta receita (clientes que gastam mais de US$ 1 milhão por ano) cresceu mais de 20% ano a ano, somando mais de 50 contas nessa faixa. OpenAI, Uber e Lovable estão na lista.
O dado mais revelador vem do RedisVL, a interface AI-native do Redis para operações vetoriais. Os downloads mensais saltaram de cerca de 100 mil em dezembro de 2024 para quase 1 milhão em dezembro de 2025, um crescimento de 10x em doze meses. Só entre setembro e dezembro de 2025, o número triplicou.
Trollope resumiu a aposta em uma frase: "Estamos entrando em uma nova fase onde o contexto se torna o locus de inovação. Esse é o lugar tradicional do Redis na stack."
Redis 8.0 e a reunificação do ecossistema
O Redis 8.0, lançado em 2 de maio de 2025, foi a maior release em anos, e não apenas por features novas. A mudança mais significativa foi estrutural: módulos que antes existiam como extensões separadas (e proprietárias) foram integrados ao core.
RedisJSON, RedisTimeSeries, RediSearch (agora Redis Query Engine) e RedisBloom deixaram de exigir instalação separada. Na prática, um Redis 8.0 vanilla já inclui suporte nativo a documentos JSON, séries temporais, busca full-text com agregações e estruturas probabilísticas como Bloom filters e count-min sketch.
Para quem acompanhou a evolução do Redis nos últimos anos, isso resolve uma fricção real. A stack de módulos criava fragmentação: versões incompatíveis, builds separados, configuração extra. Com a reunificação, um redis-server é tudo que você precisa.
O 8.0 trouxe também mais de 30 melhorias de performance documentadas, além do suporte tri-licenciado (RSAL, SSPL e AGPL), uma tentativa de reconquistar credibilidade open-source, sobre a qual falaremos adiante.
Vector Sets: busca vetorial como tipo nativo
Vector Sets são, tecnicamente, a feature mais ambiciosa do Redis 8.0. É o primeiro tipo de dado novo no Redis em anos, e o conceito é elegante: assim como sorted sets associam elementos a um score numérico, vector sets associam elementos a um vetor de alta dimensionalidade.
Na prática, isso significa busca por similaridade vetorial sem extensões externas. Você armazena embeddings diretamente no Redis com o comando VADD e faz buscas por similaridade com VSIM, incluindo queries KNN (k-nearest neighbors), buscas por raio e buscas filtradas.
Os índices suportados incluem FLAT, HNSW e o mais recente SVS-VAMANA, que traz compressão de vetores embutida. As métricas de distância disponíveis são COSINE e L2. Uma busca típica se parece com isso:
# Adicionar um documento com vetor de 4 dimensões
VADD docs VALUES 4 0.12 0.87 0.34 0.56 "artigo:redis-ia"
# Buscar os 5 documentos mais similares
VSIM docs VALUES 4 0.11 0.85 0.30 0.55 WITHSCORES COUNT 5
O Redis 8.0 como um todo trouxe reduções de latência p50 de até 87% em relação ao Redis 7.2.5, com mediana de 16,7% em 149 comandos testados. Para Vector Sets especificamente, os ganhos vieram nas versões seguintes: o Redis 8.6, lançado em fevereiro de 2026, registrou 43% mais performance em inserções e 58% em queries vetoriais em relação ao Redis 8.4.
O tipo ainda está marcado como beta, com possíveis mudanças de API. Mas o sinal é claro: o Redis quer competir de igual para igual com Pinecone, Weaviate e Qdrant no espaço de vector search, com a vantagem de já estar na stack de milhares de empresas.
Semantic caching e o pipeline de RAG
Se Vector Sets são o fundamento, o semantic caching é a aplicação killer. A ideia: em vez de cachear respostas de LLMs por match exato de prompt, usar similaridade semântica para retornar resultados cacheados quando a intenção do usuário é equivalente.
O LangCache é o produto que encapsula essa ideia. Lançado em preview privado junto com o Redis 8.0, oferece uma API REST para semantic caching sem gerenciar infraestrutura. A proposta é reduzir chamadas redundantes a LLMs, que custam tanto em latência quanto em dinheiro.
No cenário de RAG (Retrieval-Augmented Generation), o Redis assume três papéis simultâneos:
- Armazena embeddings dos documentos-fonte como Vector Sets para retrieval rápido
- Mantém o cache semântico de queries anteriores para evitar reprocessamento
- Funciona como memória de curto prazo para agentes conversacionais, persistindo contexto entre interações
O ecossistema de integrações reflete essa ambição: LangChain, LangGraph, LiteLLM, Mem0 e Kong AI Gateway são parceiros oficiais. O Redis Flex, outro produto recente, permite alocação customizada entre RAM e SSD, prometendo até 70% de redução de custo em caches grandes ao mover dados menos acessados para disco.
O que me chama atenção aqui é a coerência da estratégia. O Redis não está tentando ser um vector database genérico. A aposta é em latência sub-milissegundo para contexto real-time, exatamente onde o Redis sempre foi forte. É uma extensão natural, não um pivot forçado.
O preço da mudança: Valkey e a crise de confiança
Toda essa história de reinvenção precisa ser lida junto com o episódio mais controverso da história recente do Redis: a mudança de licença de março de 2024.
Quando o Redis trocou sua licença BSD para um modelo dual (RSALv2 e SSPL), a reação da comunidade foi imediata. A Linux Foundation criou o Valkey em questão de semanas, com backing de AWS, Google Cloud e Oracle. Uma pesquisa de 2024 apontou que 83% das grandes empresas usando Redis já haviam adotado o Valkey ou estavam avaliando a migração.
O impacto nos contribuidores foi devastador. Antes da mudança, 12 contribuidores externos eram responsáveis por 54% dos commits do projeto. Depois, o número de contribuidores não-empregados com mais de 5 commits caiu para zero. Não para "quase zero" — para zero.
Em maio de 2025, o Redis recuou parcialmente. Com o 8.0, adotou um modelo tri-licenciado que inclui AGPL, uma licença reconhecida pela OSI como open-source. Salvatore Sanfilippo (antirez), criador original do Redis, voltou à empresa em novembro de 2024 e foi peça-chave nessa decisão.
Mas o estrago pode ser irreversível. O Valkey 8.1 já demonstra resultados expressivos: 37% mais throughput em operações SET (comparado ao Redis 8.0) e 28% mais eficiência de memória em sorted sets de 50 milhões de itens, segundo benchmarks em instâncias AWS Graviton. Com a Linux Foundation como guardiã e os hyperscalers como patrocinadores, o Valkey não é um fork que vai desaparecer.
Para o Redis Inc., o caminho viável parece ser diferenciação por produto, não por código-fonte. LangCache, Redis Flex, Vector Sets com features exclusivas e o ecossistema gerenciado são a aposta. Para workloads commoditizados, o Valkey provavelmente venceu.
Conclusão
O Redis de 2026 é um produto diferente do Redis de 2020. A integração de módulos no core, os Vector Sets, o semantic caching e o posicionamento como context engine para IA são movimentos coerentes, e os US$ 300M de ARR mostram que o mercado está comprando a narrativa.
Ao mesmo tempo, a empresa carrega a cicatriz da mudança de licença. A perda de contribuidores externos e o crescimento do Valkey são fatos concretos, e nenhuma release note vai reverter isso.
Para quem está decidindo a stack de dados hoje, a questão prática é o caso de uso. Cache distribuído e workloads padrão? Valkey é a escolha segura e genuinamente open-source. Semantic caching, vector search integrado e features de ponta para IA com suporte comercial? O Redis Inc. está investindo pesado para ser essa resposta.
O mercado de context engines para IA está se formando agora. O Redis tem vantagem de latência, marca reconhecida e US$ 300M de receita para financiar a corrida. Mas a confiança da comunidade open-source, uma vez perdida, não se compra de volta com uma release note.
Referências pesquisadas nesta publicação
- Redis hits $300 million ARR - Blocks and Files
- Redis 8 is now GA - Redis Blog
- Introducing LangCache and Vector Sets - Redis Blog
- Redis Returns to Open Source under AGPL License - InfoQ
- Community Erosion Post License Change - Percona Blog
- Redis 8.0 vs Valkey 8.1: A Deep Technical Comparison - DragonflyDB
- Redis 2026: In-Memory Context Engine - Programming Helper
- State of Databases 2026 - Dev Newsletter
- Redis Vector Sets Documentation