工作內容: 1.設計與建置穩定、可擴充的資料處理系統(ETL/ELT Pipeline)。 2.開發與維護資料倉儲(Data Warehouse)與資料湖(Data Lake)架構。 3.負責資料的清洗、轉換、載入流程,確保資料品質與一致性。 4.優化後端資料流程效能,提升系統穩定性與執行效率。 5.與數據分析師、後端工程師與商業團隊合作,提供資料支援與 API 服務。 6.整合多來源資料(如 API、Database、File),並設計資料儲存模型。 7.建立資料監控、錯誤回報與自動化通知機制。 工作經歷: 具 3~5 年資料工程或後端開發相關經驗者。 其他條件 1.熟悉 Python 或 Java 等至少一種程式語言。 2.熟悉資料庫管理與查詢語言(SQL,熟悉 PostgreSQL / MySQL / SQL Server及NoSQL資料庫 等)。 3.熟悉資料處理工具,如 Apache Airflow、Apache Spark、Kafka、dbt 等。 4.熟悉 RESTful API 設計與整合。 5.熟悉 Git 版本控制與 CI/CD 概念。 6.熟悉 Linux 作業環境與 Shell Script。 7.有實際處理大數據與分散式架構經驗(如 Hadoop、Spark, Elastic Search)。 8.有 DevOps 經驗或自動化部署經驗。 9.熟悉資料治理與資料安全管理(Data Governance, Data Privacy)。 10.有 MLOps 或與 AI/ML 系統整合經驗。
待遇面議
(經常性薪資達 4 萬元或以上)
不拘
1.有實際處理大數據與分散式架構經驗(如 Hadoop、Spark, Elastic Search)。 2.有 DevOps 經驗或自動化部署經驗。 3.熟悉資料治理與資料安全管理(Data Governance, Data Privacy)。 4.有 MLOps 或與 AI/ML 系統整合經驗。