Top 3 reasons to join us
Môi trường đẩy nhanh phát triển năng lực
Nơi quy tụ nhân tài người Việt trên toàn cầu
Văn hóa thành công, đề cao sáng kiến
Job description
Thực hiện các nhiệm vụ kỹ thuật phức tạp trong thiết kế, triển khai và vận hành hạ tầng dữ liệu, đảm bảo hệ thống dữ liệu vận hành ổn định, hiệu quả và tuân thủ tiêu chuẩn kỹ thuật. Đóng vai trò nòng cốt trong việc cải tiến quy trình, hỗ trợ chuyên môn cho đồng nghiệp và đảm bảo dữ liệu sẵn sàng phục vụ phân tích và ra quyết định kinh doanh.Trách nhiệm chính/ Key AccountabilitiesThực hiện các công việc chuyên môn phức tạp:* Phân tích yêu cầu dữ liệu, thiết kế kiến trúc luồng dữ liệu (data pipeline) đảm bảo hiệu năng và khả năng mở rộng.
Phát triển, tối ưu quy trình ETL/ELT từ nhiều nguồn dữ liệu khác nhau, đảm bảo dữ liệu được xử lý chính xác, đầy đủ và đúng lịch trình.
Xây dựng, bảo trì hệ thống lưu trữ dữ liệu (Data Warehouse, Data Lake), xử lý dữ liệu lớn theo batch và real-time (streaming).
Thiết lập giám sát hiệu suất và cảnh báo cho hệ thống dữ liệu, xử lý các vấn đề liên quan đến dữ liệu (data issue triage).
Hỗ trợ chuyên môn và đào tạo:* Hướng dẫn, hỗ trợ đồng nghiệp cấp dưới trong việc giải quyết các vấn đề kỹ thuật, đảm bảo chất lượng đầu ra.
Tham gia đào tạo nội bộ, chia sẻ kiến thức về kỹ thuật xử lý dữ liệu, công cụ mới và chuẩn hóa quy trình kỹ thuật.
Đóng góp vào cải tiến quy trình:* Tham gia đánh giá, cải tiến các quy trình phát triển và vận hành dữ liệu nhằm tăng tính tự động hóa, giảm thiểu lỗi.
Đề xuất và triển khai các công cụ giám sát, kiểm thử và bảo trì pipeline dữ liệu, đảm bảo tính ổn định lâu dài.
Your skills and experience
Yêu cầu:* Tốt nghiệp Đại học/Cao đẳng trở lên chuyên ngành Công nghệ Thông tin, Khoa học Máy tính, Hệ thống Thông tin, hoặc tương đương.
Tối thiểu 5 năm kinh nghiệm trong vai trò Data Engineer hoặc tương đương.
Thành thạo Python và SQL trong xử lý và biến đổi dữ liệu.
Có kinh nghiệm thực tế trên ít nhất một nền tảng Cloud (AWS, Azure, hoặc GCP).
Có kinh nghiệm với Data Warehouse (Snowflake, BigQuery, Redshift, Synapse, v.v.) và Data Lakehouse (Delta Lake, Databricks, v.v.).
Thành thạo sử dụng Apache Airflow, dbt, Spark, Hadoop.
Có kinh nghiệm với hệ thống ETL/ELT, xử lý dữ liệu thời gian thực (Kafka, Spark Streaming, Flink).
Kỹ năng phân tích kỹ thuật tốt, tư duy hệ thống, khả năng làm việc độc lập và phối hợp nhóm.
Ưu tiên: Có kinh nghiệm làm việc với Databricks* trong môi trường production.
Có hiểu biết về data governance, data quality, metadata management.
Kinh nghiệm với containerization (Docker, Kubernetes) hoặc CI/CD pipelines.
Có chứng chỉ Cloud (AWS Data Analytics, Azure Data Engineer, GCP Data Engineer) là điểm cộng.
Why you'll love working here
1. Lương và Trợ cấp:* Lương tháng 13, thưởng doanh số hàng năm, thưởng dự án, thưởng doanh số (theo vị trí)
Phụ cấp ăn trưa: 730.000đ/tháng
Thưởng Lễ Tết: 2.500.000 - 5.000.000 VND/năm
Phép năm: Tối đa 20 ngày/năm (theo cấp nhân sự)
Sức khỏe: Bảo hiểm xã hội, phí bảo hiểm PVI, khám sức khỏe định kỳ hàng năm
Máy tính xách tay, màn hình và các phương tiện/tài khoản/công cụ cần thiết khác cho công việc
2. Cơ hội nghề nghiệp:* Xét tăng lương hàng năm và cơ hội thăng tiến
Con đường sự nghiệp đa dạng: Quản lý hoặc Chuyên gia và cơ hội điều chuyển nội bộ giữa các team
Nguồn học miễn phí trên các nền tảng Udemy, Coursera, O'relly; hội thảo nội bộ, tài trợ chứng nhận và Cố vấn độc quyền (C-level)
Công nhận và khen thưởng ở cấp độ nhóm và Công ty
3. Môi trường làm việc:* Không gian làm việc mở và thúc đẩy cả sự tập trung cá nhân và các hoạt động làm việc theo nhóm
Môi trường làm việc trẻ trung, năng động và hợp tác
Khu thư giãn: chơi game, bóng bàn, yoga, phòng tập thể dục, phòng tắm, sleep box
Teambuilding hàng quý/ hàng năm \& các sự kiện nội bộ gắn kết