ETL數據工程師 ETL Data Engineer

08/11更新
應徵

工作內容

工作內容: ETL 設計與開發: 負責企業數據倉庫(DWS)的 ETL 流程設計、開發與優化,確保數據從源系統到目標系統的高效且安全傳輸。 使用 ETL 工具(如 Informatica、DataStage、Talend、Apache Nifi、SSIS 等)建構數據管道,執行數據清洗、轉換與加載。 撰寫高效能 SQL 語句,設計數據庫存儲過程,處理大規模數據集並優化查詢效率。 數據整合與處理: 設計與開發數據整合流程,處理來自關聯式數據庫(如 MySQL、Oracle)、大數據平台(如 Hadoop、Spark)及 API 等多來源數據。 優化數據質量(如缺失值、重複值處理)與數據一致性,確保提供高品質數據供業務使用。 性能優化與監控: 深入優化 SQL 查詢效能,包括索引優化、分區策略、執行計劃分析等。 持續提升 ETL 作業效能,縮短執行時間並提高數據處理效率。 監控 ETL 作業執行情況,及時診斷並解決作業失敗、性能瓶頸等問題。 數據安全法: 確保 ETL 流程符合企業數據安全標準與隱私保護規範(如 GDPR、ISO27001)。 執行數據加密、脫敏等安全策略,確保敏感數據的保護。 文件撰寫與團隊協作: 撰寫與維護 ETL 設計文件、數據流程圖,確保專案具可追溯性與可維護性。 與數據分析師、BI 開發人員、數據科學家等團隊密切合作,支援數據產品開發。 任職要求: 學歷與經驗: 大學以上學歷,計算機科學、軟體工程、資訊管理等相關科系。 具備 3 年以上 ETL 開發經驗,曾參與數據倉庫或大數據相關專案者優先考慮。 Job Responsibilities: ETL Design and Development: Responsible for the design, development, and optimization of ETL processes for the enterprise data warehouse (DWS), ensuring efficient and secure data transfer from source systems to target systems. Build data pipelines using ETL tools (such as Informatica, DataStage, Talend, Apache Nifi, SSIS, etc.), performing data cleansing, transformation, and loading. Write high-performance SQL queries, design database stored procedures, handle large-scale data sets, and optimize query efficiency. Data Integration and Processing: Design and develop data integration processes to handle multi-source data from relational databases (such as MySQL, Oracle), big data platforms (such as Hadoop, Spark), and APIs. Optimize data quality (such as handling missing values, duplicates) and ensure data consistency, ensuring high-quality data for business use. Performance Optimization and Monitoring: Deeply optimize SQL query performance, including index optimization, partitioning strategies, and execution plan analysis. Continuously improve ETL job performance, reduce runtime, and enhance data processing efficiency. Monitor ETL job execution, diagnose and resolve job failures, performance bottlenecks, and other issues in a timely manner. Data Security and Compliance: Ensure that ETL processes comply with the company's data security standards and privacy protection regulations (such as GDPR, ISO27001). Implement data encryption, anonymization, and other security strategies to ensure the protection of sensitive data. Documentation and Team Collaboration: Write and maintain ETL design documents, data flow diagrams, ensuring traceability and maintainability of the project. Collaborate closely with data analysts, BI developers, data scientists, and other teams to support data product development. Qualifications: Education and Experience: Bachelor’s degree or higher in Computer Science, Software Engineering, Information Management, or related fields. 3+ years of ETL development experience, with preference given to those with experience in data warehouse or big data projects.

工作待遇

年薪800,000~1,800,000元

(固定或變動薪資因個人資歷或績效而異)

工作性質

全職

上班地點

台北市大安區敦化南路二段2號 (距捷運信義安和站約470公尺)

遠端工作

部分遠端,採取混合制上班,前期會以完全遠端為主,而後視情況改變工作制度。

管理責任

不需負擔管理責任

出差外派

無需出差外派

上班時段

日班

休假制度

依公司規定

可上班日

不限

需求人數

2~3人

條件要求

工作經歷

3年以上

學歷要求

大學以上

科系要求

工程學科類、工業技藝及機械學科類、數學及電算機科學學科類

語文條件

不拘

擅長工具

其他條件

技術能力: 熟練掌握主流 ETL 工具(如 Informatica、DataStage、Talend、SSIS 等)。 精通 SQL 編程,能夠編寫高性能 SQL 查詢語句,熟悉索引優化、分區、執行計劃分析等性能優化方法。 深入理解數據建模理論(如星型模型、雪花模型),具備數據倉庫開發經驗。 熟悉數據庫性能優化,能夠診斷與解決數據庫瓶頸問題。 了解大數據平台(如 Hadoop、Hive、Spark、Kafka)的基本原理與使用方法者優先。 掌握腳本語言(如 Python、Shell),可用於自動化任務調度與數據處理。 工具與框架: 熟悉數據整合平台(如 Airflow、Luigi)與任務調度工具。 了解雲服務平台(如 HUAWEI DWS)上的 ETL 工具者優先。 軟技能: 優秀的邏輯思維能力與問題分析解決能力,尤其擅長性能瓶頸排查。 高度責任心,對數據質量、性能優化與系統穩定性有強烈關注。 具備團隊合作精神與良好溝通能力,能與不同職能團隊高效協作。 具備良好的英語讀寫能力,能夠閱讀技術文檔。 Technical Skills: Proficient in mainstream ETL tools (such as Informatica, DataStage, Talend, SSIS, etc.). Expertise in SQL programming, capable of writing high-performance SQL queries, and experienced in performance optimization techniques such as indexing, partitioning, and execution plan analysis. Deep understanding of data modeling theories (such as Star Schema and Snowflake Schema) with hands-on experience in data warehouse development. Familiar with database performance optimization, capable of diagnosing and resolving database bottlenecks. Preference for candidates with knowledge of big data platforms (such as Hadoop, Hive, Spark, and Kafka). Proficient in scripting languages (such as Python and Shell) for automation of task scheduling and data processing. Tools and Frameworks: Familiar with data integration platforms (such as Airflow and Luigi) and task scheduling tools. Experience with ETL tools on cloud service platforms (such as HUAWEI DWS) is a plus. Soft Skills: Strong logical thinking and problem-solving skills, especially in troubleshooting performance bottlenecks. Highly responsible, with a strong focus on data quality, performance optimization, and system stability. Excellent teamwork and communication skills, able to collaborate efficiently with cross-functional teams. Good proficiency in English reading and writing, with the ability to understand technical documentation.

顯示全部

公司環境照片(5張)

福利制度

法定項目

其他福利

法定項目,依循勞基法及相關辦法規定,舉例如下: 勞退提撥金、職災保險、育嬰假、特別休假、陪產檢及陪產假、勞保、健保等等 颱風假:僅適用每日進辦公室之職務,Hybrid 上班者仍須照常遠端工作。 。鼎琉專屬福利。 ● 彈性上班–員工能自由在任何有網路的地方工作,鼎琉講究時間彈性。 ● 帶薪病假–員工入職後滿三個月除特休外,每年享十日帶薪病假,鼎琉關心員工健康。 ● 不定期餐敘–員工能參與餐敘Team Building,鼎琉帶員工吃好料。 。鼎琉獎金補貼。 ● 績效獎金 ● 內推獎金 。鼎琉教育訓練及進修補助。 ● 新人訓練:1. 基礎訓練 2. 通識教育 ● 在職訓練:1. 專業知識培訓 2. 管理職能進修 3. 其他業務能力進修 。鼎琉人才評選 。 ● 中  級: 月薪4萬起 ● 高  級: 月薪6萬起 ● 特  級: 年薪180萬起 註:入職三個月後有考核,考核將影響薪俸調整 《公司部份福利、待遇因職務、職等、職種有所不同,並隨公司營運方針有所調整,詳情請於面試時詢問,以錄取通知為主,且絕對尊重員工自主意願。》

聯絡方式

聯絡人

Ashi

應徵回覆

合適者將於3個工作天內主動聯繫,不合適者將不另行通知
104人力銀行提醒您履歷關閉時仍可投遞履歷喔!面試時請遵守求職禮儀準時赴約並小心安全
求職安全專線【勞動部】0800-085-151【104人力銀行】02-29126104轉2 或來信詢問
建議使用104內建訊息功能,以保障您的求職權益,職缺內容可能包含第三方通訊軟體,敬請謹慎評估。
職場安全提醒

適合你大展身手的工作

智能客服
您好,我是您的智能客服 找頭鹿有任何問題都可以問我喔!