Confluent lança novas iniciativas de tecnologia para silos de dados

A empresa de streaming de dados de código aberto Confluent lançou sua expansão com novos conectores e dimensionamento sob demanda para quebrar os silos de dados.

Como parte da iniciativa de lançamento do Confluent Q1 ’22, a empresa aproveitará a tecnologia em novos controles para dimensionar com eficiência os clusters Apache Kafka de taxa de transferência massiva.

A empresa diz que ajudará as empresas com escalabilidade e digitalização, pois oferece soluções melhores e mais eficientes.

Novos controles também são projetados para expandir e reduzir a capacidade do cluster GBps+ para melhorar a elasticidade das demandas de negócios em tempo real. Além disso, o Schema Linking garantirá fluxos de dados compatíveis globalmente em ambientes de nuvem e híbridos para os clientes.

Com a grande maioria dos dados atualmente armazenados em silos, a empresa enfatiza que novas integrações podem levar meses e o progresso na implementação de novas tecnologias pode ser atrasado. Atender à crescente demanda e manter uma coordenação eficiente tornou-se significativamente mais desafiador.

“Devido à maneira como consumimos dados hoje, empresas e clientes têm uma expectativa crescente por experiências e comunicações instantâneas e relevantes”, disse Amy Machado, gerente de pesquisa do pipeline de dados de streaming da IDC, na Previsão Mundial de Software de Análise Contínua Mundial da IDC para 2021-2025.

“O streaming e o processamento de dados em tempo real estão se tornando a norma, não a exceção.”

Ganesh Srinivasan, diretor de produtos da Confluent, diz que a empresa desenvolveu uma solução eficaz que atende aos requisitos necessários para avançar na infraestrutura empresarial moderna.

“As operações e experiências em tempo real que caracterizam as organizações na economia de hoje exigem dados ricos em movimento”, diz ele.

“Em uma busca para ajudar as organizações a colocar seus dados em movimento, projetamos a maneira mais simples de conectar fluxos de dados em aplicativos e sistemas críticos de negócios, garantir que eles possam escalar rapidamente para atender às necessidades imediatas de negócios e… qualidade de dados em escala global.”

Agora, há adições aos mais de 50 conectores totalmente gerenciados e criados por especialistas que ajudam a modernizar rapidamente os aplicativos com pipelines de dados em tempo real.

Os conectores mais recentes do portfólio Confluent incluem Azure Synapse Analytics, Amazon DynamoDB, Databricks Delta Lake, Google BigTable e Redis. A empresa diz que isso resultará em maior cobertura de fontes e destinos de dados populares.

A Confluent diz que os controles globais de qualidade de dados são essenciais para manter uma implantação Kafka altamente compatível saudável ao longo do tempo e, ao alavancar novas tecnologias, como link de esquema inovador, eles também podem ajudar a impulsionar novas expansões e parcerias.

Com sede nos EUA, a Confluent tem vários escritórios na Ásia-Pacífico, e a nova tecnologia avançará em todas as áreas de negócios afetadas.

Leave a Reply

Your email address will not be published. Required fields are marked *

Back To Top