🚀 Buscamos: Data Engineer Junior – Monitorización y Análisis de DatosEn SIRT estamos en búsqueda de un/a Data Engineer Junior para unirse a nuestro equipo. Queremos a alguien con 1 a 3 años de experiencia y con ganas de seguir creciendo en el área de datos, especialmente en Splunk, Elastic, Hadoop o Spark.🎯 Tu misiónParticiparás en el diseño y mantenimiento de sistemas que permiten la ingesta, procesamiento y visualización de datos en tiempo real. Serás parte de un equipo experto que te acompañará en tu crecimiento profesional y te ayudará a desarrollar tus habilidades técnicas en plataformas de monitorización y análisis de datos.Este rol es perfecto si te apasiona resolver problemas, aprender cada día y ya has tenido contacto práctico con Splunk o Elastic Stack (ELK).🛠️ Responsabilidades principalesApoyar en la implementación y mantenimiento de pipelines de ingesta de datos.Colaborar en la administración y optimización de plataformas como Splunk o Elastic Stack.Participar en tareas de parseo, normalización y procesamiento de datos desde múltiples fuentes.Construir dashboards, visualizaciones y alertas básicas para monitorizar sistemas.Trabajar junto a equipos de desarrollo, DevOps y ciberseguridad para asegurar la correcta captura y análisis de datos.Documentar procedimientos, configuraciones y flujos de datos con la guía del equipo senior.💻 Modalidad: Remoto🕒 Horario:Lunes a jueves de 9h a 18hViernes de 9h a 15h🎁 BeneficiosPlan de formación y desarrollo profesional.Seguro de salud.Clases de inglés.Equipo colaborativo y proyectos innovadores.¿Quieres formar parte de un equipo donde podrás crecer, aprender y aportar desde el primer día?¡Postúlate ahora y da el siguiente paso en tu carrera con nosotros! 🚀Requisitos:✅ Requisitos necesarios1–3 años de experiencia en roles como Data Engineer, SysAdmin, Analista de Datos o similar.Experiencia práctica en al menos una de estas plataformas:Splunk: ingesta de datos, creación de consultas SPL y dashboards básicos.Elastic Stack (ELK): uso de Elasticsearch, Logstash o Kibana para análisis y visualización.Conocimientos básicos de Python para scripting.Conocimientos de SQL y bases de datos relacionales.Familiaridad con entornos Linux y herramientas de control de versiones (Git).Capacidad de trabajo en equipo, curiosidad y motivación por aprender.⭐ Habilidades deseables (¡suman puntos!)Experiencia previa con Hadoop o Apache Spark.Conocimientos básicos de algún proveedor Cloud (AWS, GCP o Azure).Interés en IA aplicada al análisis de datos.Familiaridad con sistemas de orquestación como Airflow.nociones de contenedores (Docker).
Responsibilities
Job Requirements
Apply now