Confluent mejora la oferta de Apache Flink con nuevas herramientas para desarrolladores y seguridad de nivel empresarial

Confluent, Inc. (NASDAQ:CFLT), pionero en transmisión de datos, ha introducido nuevas funciones en Confluent Cloud para hacer que el procesamiento y la transmisión de datos sean más accesibles y seguros. El nuevo soporte de Confluent para Table API hace que Apache Flink® esté disponible para desarrolladores de Java y Python; La red privada de Confluent para Flink proporciona protección a nivel empresarial para casos de uso con datos confidenciales; Confluent Extension para Visual Studio Code acelera el desarrollo de casos de uso en tiempo real; y el cifrado a nivel de campo del lado del cliente cifra los datos confidenciales para mayor seguridad y privacidad. «El verdadero poder de utilizar Apache Flink para el procesamiento de transmisiones permite a los desarrolladores crear aplicaciones que analizan y responden instantáneamente a los datos en tiempo real, mejorando significativamente la capacidad de respuesta y la experiencia del usuario», afirmó Stewart Bond, vicepresidente de investigación de IDC. “Las soluciones administradas de Apache Flink pueden eliminar las complejidades de la administración de infraestructura y al mismo tiempo ahorrar tiempo y recursos. Las empresas deberían buscar una solución Flink que se integre perfectamente con las herramientas, lenguajes de programación y formatos de datos que ya utilizan para una fácil implementación en los flujos de trabajo empresariales”. Cada vez más empresas confían en el procesamiento de flujo para crear aplicaciones y canalizaciones en tiempo real para diversos casos de uso que van desde aprendizaje automático, mantenimiento predictivo, recomendaciones personalizadas y detección de fraude. El procesamiento de flujo permite a las organizaciones fusionar y enriquecer sus datos con información de toda la empresa. Apache Flink es el estándar de facto para el procesamiento de transmisiones. Sin embargo, muchos equipos encuentran obstáculos con Flink porque es operativamente complejo, difícil de proteger y tiene altos costos de infraestructura y administración. «Miles de equipos en todo el mundo utilizan Apache Flink como una solución confiable de procesamiento de vapor para brindar experiencias excepcionales a los clientes y simplificar las operaciones al acercar el procesamiento a la fuente, donde los datos están frescos y limpios», dijo Shaun Clowes, director de productos de Confluent. «Nuestras últimas innovaciones amplían aún más los límites, facilitando a los desarrolladores de todos los niveles aprovechar esta poderosa tecnología para casos de uso aún más críticos y complejos». El soporte de Confluent para Table API extiende Flink a equipos con experiencia en Java o Python. Confluent Cloud para Apache Flink ofrece SQL API, una herramienta poderosa e intuitiva para procesar flujos de datos. Si bien Flink SQL es bueno para escribir y ejecutar consultas rápidamente, algunos equipos prefieren lenguajes de programación como Java o Python que permiten un mayor control de sus aplicaciones y datos. Esto puede ser especialmente importante al desarrollar lógica empresarial compleja o tareas de procesamiento personalizadas. Agregar compatibilidad con Table API a Confluent Cloud para Apache Flink permite a los desarrolladores de Java o Python crear fácilmente aplicaciones de transmisión utilizando herramientas familiares. Al admitir tanto Flink SQL como Table API, Confluent Cloud para Apache Flink permite a los desarrolladores elegir el mejor lenguaje para sus casos de uso. El soporte de Table API permite a las empresas: Mejorar la flexibilidad del lenguaje al permitir a los desarrolladores usar sus lenguajes de programación favoritos, aprovechando características específicas del lenguaje y operaciones personalizadas. Simplifique el proceso de codificación aprovechando el entorno de desarrollo integrado (IDE) de su elección, que incluye autocompletar, herramientas de refactorización y comprobaciones en tiempo de compilación para garantizar una mayor calidad del código y minimizar los problemas de tiempo de ejecución. Simplifique la depuración con un enfoque iterativo para el procesamiento de datos y una integración CI/CD simplificada. «Estamos reinventando los servicios financieros y es fundamental que adoptemos nuevas tecnologías que no solo protejan a nuestros clientes sino que también sean fácilmente utilizadas por nuestros equipos», afirmó Shujahat Bashir, director de ingeniería de software de Thrivent. “La transmisión y el procesamiento de datos pueden ayudar a impulsar la detección de fraude y el procesamiento de pagos en tiempo real para una experiencia excepcional para el cliente. «Esperamos utilizar las nuevas funciones de Apache Flink de Confluent, incluidas redes privadas, administración de esquemas flexible y API de tablas para extender el poder de Flink a los lenguajes y estilos de desarrollo que ya usamos hoy». La compatibilidad con Table API está en versión preliminar abierta y está disponible para fines de prueba y experimentación. La disponibilidad general estará disponible pronto. La habilitación de red privada para Flink proporciona un entorno seguro para cargas de trabajo de transmisión de datos Con más datos que nunca y más equipos que utilizan soluciones híbridas y en la nube, las redes privadas son esenciales para la protección contra el acceso no autorizado y las amenazas cibernéticas. Confluent Cloud ahora ofrece soporte de red privada para Flink, proporcionando una capa crítica de seguridad para las empresas que deben procesar datos en entornos regulatorios estrictos. Al habilitar la red privada para Flink, los usuarios de Confluent pueden: Aumentar la seguridad y privacidad de los datos entre Flink y Kafka salvaguardando los datos en tránsito y garantizando conexiones seguras entre los clientes y Flink dentro de una red privada. Simplifica la configuración segura de la red al facilitar la configuración de conexiones privadas sin requerir conocimientos profundos de redes. Facilita el procesamiento de flujos flexible y seguro al fusionar y procesar datos sin problemas en diferentes clústeres de Kafka, lo que garantiza la accesibilidad de los datos y al mismo tiempo cumple con rigurosos protocolos de seguridad. La compatibilidad con redes privadas generalmente está disponible en AWS para empresas y clústeres dedicados. Próximamente llegarán más plataformas en la nube. Confluent Extension para Visual Studio Code simplifica las cargas de trabajo y acelera los ciclos de desarrollo. Los equipos que trabajan con plataformas de datos en tiempo real como Apache Kafka de código abierto a menudo luchan con herramientas fragmentadas, flujos de trabajo engorrosos y cambios constantes entre entornos y otras interfaces. Esta experiencia entrecortada dificulta la integración de datos en tiempo real en las aplicaciones, lo que ralentiza la productividad y la innovación. Los entornos de desarrollo integrados pueden facilitar mucho este proceso y el 54% de los desarrolladores a nivel mundial utilizan Visual Studio Code (VS Code), la opción más popular para editar código. Confluent Extension para Visual Studio Code simplifica el proceso de desarrollo al integrar Confluent directamente en el entorno de desarrollo integrado preferido de sus equipos. Confluent Extension para Visual Studio Code permite a los equipos: Simplificar la gestión de temas para crear, editar y explorar fácilmente temas de Kafka con herramientas intuitivas que simplifican la depuración y aumentan la eficiencia. Codifique y depure en un solo lugar escribiendo, ejecutando y depurando clientes Kafka, consultas Flink y aplicaciones de streaming directamente en VS Code con funciones de productividad avanzadas como la finalización de código. Administre sin problemas los recursos de la nube para aprovisionar y controlar los clústeres de Confluent Cloud dentro de VS Code, reduciendo la complejidad y simplificando las operaciones en la nube. Confluent Extension para Visual Studio Code es compatible con clientes Kafka y está disponible en acceso anticipado. Las nuevas funciones de Flink y su disponibilidad general estarán disponibles más adelante en 2024. El cifrado a nivel de campo del lado del cliente protege los datos más confidenciales de los equipos y al mismo tiempo cumple con los requisitos reglamentarios. La seguridad y la privacidad de los datos son las principales prioridades para las organizaciones de la industria reguladas, incluidos los servicios financieros, la atención médica y la atención médica. sector público. Estas organizaciones están sujetas a regulaciones de cumplimiento con respecto a cómo se accede, mueve y almacena los datos confidenciales, como la información de identificación personal (PII). El cifrado a nivel de campo del lado del cliente ayuda a los equipos a proteger sus datos más confidenciales al permitirles cifrar campos individuales dentro de flujos de datos para mayor seguridad y cumplimiento. Como complemento a las funciones de seguridad existentes de Confluent, el cifrado a nivel de campo del lado del cliente reduce aún más el riesgo de acceso no deseado al cifrar los datos del lado del cliente de modo que incluso los administradores del sistema y los usuarios con acceso altamente privilegiado no puedan ver los mensajes en texto plano. Con el cifrado a nivel de campo del lado del cliente, los equipos pueden: Mejorar la seguridad de los datos confidenciales y cumplir estrictos requisitos de cumplimiento. Mantenga un control de acceso granular y flexible sobre qué campos específicos cifrar. Reduzca el costo total de propiedad y la complejidad operativa al reducir la necesidad de duplicación de temas. El cifrado a nivel de campo del lado del cliente actualmente tiene disponibilidad limitada y se espera que pronto esté disponible de manera general para todos los usuarios de Confluent Cloud a través de la suite Stream Governance de la compañía.

About Francisco

Check Also

Correcciones adicionales en el panel: instantánea del navegador Vivaldi 3491.4

Correcciones adicionales en el panel: instantánea del navegador Vivaldi 3491.4

En la instantánea de hoy hay mejoras adicionales en el experimento del panel de la …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *