G&A
/
Empleado de tiempo completo
/
Remoto
Descripción
Estamos creciendo y buscando contratar a un ingeniero de datos que represente nuestros valores fundamentales: Las personas primero, Obsesión por el cliente, Esforzarse por la excelencia e Integridad, para que se una a nuestro equipo regional de APJ. Este experto ingeniero de datos nos ayudará a construir una solución de almacenamiento de datos sólida, escalable y eficiente utilizando Databricks.
Trabajará junto con equipos interdisciplinarios para diseñar e implementar la arquitectura de datos que impulsa las perspectivas y decisiones en toda la organización.
El candidato ideal tendrá una sólida experiencia en ingeniería de datos, con experiencia en plataformas de datos basadas en la nube, procesos ETL/ELT y trabajo con conjuntos de datos a gran escala. La familiaridad con el modelado y el diseño de tuberías es clave.
Acerca de Claroty:
Claroty tiene la misión de proteger los sistemas ciberfísico en entornos industriales, de atención médica, comerciales y del sector público: el internet de las cosas extendida (XIoT).
La plataforma Claroty se integra con la infraestructura existente de los clientes para proporcionar una gama completa de controles de visibilidad, gestión de exposición, protección de red, detección de amenazas y acceso seguro.
Nuestras soluciones son implementadas por más de 1,000 organizaciones en miles de sitios en los siete continentes.
Claroty tiene su sede central en la ciudad de Nueva York, con empleados en América, Europa, Asia-Pacífico y Tel Aviv.
La compañía es ampliamente reconocida como líder de la industria en protección de sistemas ciberfísico , con el respaldo de las firmas de inversión y los proveedores de automatización industrial más grandes del mundo, así como el reconocimiento de KLAS Research como la mejor en KLAS para la seguridad de IoT de atención médica, Deloitte Technology Fast 500, Forbes Cloud 100 y Fortune Cyber 60.
Responsabilidades
Como ingeniero de datos, su impacto será:
- Propiedad de la arquitectura de datos: Administrar y mejorar proactivamente nuestra arquitectura de datos, garantizando la integración, la calidad de los datos y la coherencia en los diferentes sistemas. La familiaridad con los principios de modelado y diseño será clave.
- Desarrollo de tuberías de datos: Cree tuberías de ETL/ELT eficientes y confiables que muevan y transformen datos de sistemas de origen (Salesforce, NetSuite, Hubspot y otras plataformas GTM) en el almacén de datos/lago
- Integración de datos: Integre datos de varios sistemas fuente en los ladrillos de datos mientras garantiza la calidad, la consistencia y la seguridad de los datos
- Documentación y mejores prácticas: Documente procesos, flujos de trabajo y arquitecturas, garantizando que las soluciones se comprendan y puedan mantenerse fácilmente. Siga las mejores prácticas de la industria para la ingeniería de datos.
- Automatización: Implementar monitoreo automatizado, detección de errores y alertas para garantizar la confiabilidad y estabilidad del almacén de datos.
Requisitos
- Educación: licenciatura en Ciencias Informáticas, Ingeniería, Estadísticas o un campo relacionado
- Experiencia: 3+ años de experiencia práctica en ingeniería de datos, con al menos 1 año trabajando específicamente con Databricks o plataformas similares basadas en la nube
Habilidades técnicas:
- Dominio de in SQL y Python para el procesamiento y la transformación de datos.
- Sólida experiencia con Ladrillos de datos (Apache Spark, Delta Lake, etc.) y el entorno de Databricks.
- Experiencia en la construcción y gestión de ductos de ETC/ELT en Databricks.
- Conocimiento práctico de soluciones de almacenamiento de datos en la nube (p. ej., S3, ADLS, GCS).
- Experiencia en modelado de datos, diseño de esquemas y optimización de consultas.
- Plataformas en la nube: Experiencia con entornos en la nube (AWS, Azure o GCP) y servicios en la nube como almacenamiento, computación y orquestación (p. ej., AWS S3, Azure Blob Storage, Google BigQuery).
- Almacenamiento de datos: Comprensión sólida de los conceptos de almacenamiento de datos y las mejores prácticas, incluido el esquema estrella/copo de nieve, la partición, la indexación y la gobernanza de datos.
- Resolución de problemas: Capacidad para solucionar problemas de datos, optimizar el rendimiento de consultas y resolver inconsistencias de datos.
- Integración de sistemas fuente: Experiencia con sistemas CRM y ERP (p. ej., Salesforce, Netsuite, Hubspot) y metodologías de integración de datos