104工作快找APP

面試通知不漏接

立即安裝APP

「Data Engineer 數據工程師」的相似工作

像素數科技術有限公司
共500筆
10/30
台北市大同區經歷不拘大學以上
【工作內容】 1.協助客戶安裝與部署 Pentaho 產品,包括 Pentaho Data Integration(PDI)、Pentaho Server 和 Pentaho Report Designer。 2.使用 ETL 工具(Pentaho PDI、Talend、Informatica、Microsoft SSIS 等)進行數據抽取、轉換與載入,確保資料正確性與完整性。 3.熟悉 Python 或 Java 等程式語言,能撰寫 ETL 腳本與自動化流程。 4.設計並維護 Data Model,建立高效、可擴充的數據架構。 5.開發與維護 Data Warehouse,確保數據一致性、完整性與可靠性。 6.熟悉 SQL 與常見資料庫(RDBMS / NoSQL),能分析並解決複雜的資料問題。 7.協助客戶安裝與配置 OpenMetadata,並整合至既有數據管理環境。 8.使用 OpenMetadata 平台建立與維護數據資產目錄,協助定義數據標準、數據政策與分類。 9.整合 OpenMetadata 與其他數據管理工具(ETL、資料庫、BI 工具等)。 10.撰寫專案與技術文件,包括安裝手冊、教育訓練教材與客戶需求文件。 11.參與客戶需求訪談,協助規劃與導入完整的數據平台解決方案。 12.其他主管交辦事項。 【必要條件】 1.具備 SQL 語法與資料結構基礎,理解 Data Flow 並能應用於實務案例。 2.熟悉 ETL 工具操作與數據處理邏輯。 3.至少熟悉一種程式語言(Python / Java),能進行自動化與流程開發。 4.理解 Data Model 設計理論並具備實務經驗。 5.良好的溝通能力,能與客戶合作並釐清需求。 6.具備獨立作業與問題解決能力,能快速學習新技術。 【加分條件】 熟悉 Pentaho PDI 或 OpenMetadata 平台。 具備 Data Warehouse、資料治理、資料湖泊等相關經驗。 有報表系統(如 Pentaho Report Designer、Power BI、Tableau)應用經驗。 瞭解雲端數據平台(如 AWS Redshift、GCP BigQuery、Snowflake)尤佳。 具備教育訓練、技術文件撰寫與客戶導入顧問經驗。 【發展方向】 短期(1–2 年):熟悉 Pentaho / OpenMetadata / DWH 平台導入,能獨立執行專案模組。 中期(2–4 年):成為能夠進行跨系統數據整合與數據治理規劃的顧問。 長期(5 年以上):成長為資料架構師 / 雲端數據平台專家,能帶領團隊規劃企業級數據平台。
應徵
10/28
台北市中山區2年以上大學
【工作內容】 1. 將概念性想法設計規劃為可執行的解決方案 2. 大數據專案的規劃,數據接入、清洗、建模與可視化的設計 3. 與機器學習工程師、雲端架構師、PM密切合作共同合作完成專案,供客戶高質量的雲端數據相關服務 4. 負責協助客戶整合、設計、部署大數據處理流程與平臺 5. 探索雲端服務組合的可能性,創造全新的可能性 【必備技能/條件】 1. 3 年以上資料排程、處理、清洗、分析的實務經驗 2. 2 年以上資料處理常用的 Open Source 工具的實務經驗,eg. Spark, Airflow, hadoop 3. 2 年以上Python / Java 程式語言開發相關工作經驗 4. 擅長解決問題、除錯、故障排除,提出問題解決方案 【加分條件】 1. 具備BigQueryRDBMSNoSQL使用經驗 2. 具備爬蟲相關經驗 3. 熟悉 Restful API
應徵
11/03
HUA AO_香港商創金科技有限公司其它軟體及網路相關業
台北市大同區2年以上專科
【工作內容】 1. 熟練掌握 SQL、Python,瞭解數據建模理論 2. 熟悉數據倉庫工具(如 Snowflake、Redshift、BigQuery、Databricks 等) 3. 使用 BI 可視化工具(如 Power BI、Tableau、Looker) 4. 有支付相關業務(如交易數據、支付成本、渠道分潤)分析經驗 5. 具 ETL 構建經驗,熟悉 Airflow、DBT 等數據編排工具經驗 【加分條件】 1. 有參與資料平台、BI 系統或數據倉儲專案的經驗,能獨立完成中小型任務 2. 熟悉 Git、CI/CD、Docker 等基礎 DevOps 工具者佳 3.參與團隊數據治理與標準制定經驗者尤佳 4. 具備良好的跨部門溝通與協作能力,能協助推動任務執行與進度管理
應徵
10/27
域動行銷股份有限公司廣告行銷公關業
台北市松山區1年以上大學以上
公司介紹: 域動行銷是中華電信集團轉投資公司之一,成立於2009年,致力於提供創新的數位廣告解決方案,當中包含廣告系統DSP、SSP、CDP、混血數據及廣告聯播網等,我們通過創新的行銷技術解決方案來推動廣告和數據分析的發展,同時專注於行銷科技領域,提供前瞻性的觀點,引領數據行銷的未來。 組織介紹: 域動Data Team是由一群對『數據分析』及『AI應用』具有研究及開發熱誠的成員所組成。在這裡你可以接觸到大量即時的使用者行為資料,並將資料科學模型應用於: 『網路廣告投放優化』 『網路用戶辨識』 『消費者行為分析』 我們更致力於尋找優化方案,改善產品體驗設計及為商業決策提供數據支持,提升效率和價值。我們鼓勵組員多方嘗試、思考、展現天馬行空的創意,且能清楚闡述想法,付諸實踐。 【Job Description】 • 須熟悉python, 尤其是對pyspark操作有經驗 • 具備優化資料流和處理效率的專業知識,以及處理每日一億筆記錄的資料吞吐量的經驗 • AWS、GCP 等雲端平台的實務經驗 • 熟練開發強大的data pipeline,包括資料收集和 ETL(擷取、轉換、載入)流程 • 具備設計和實施資料平台各種元件的經驗,包括資料攝取、儲存、資料倉儲、資料編排 • 持續整合和持續部署(CI/CD)流程的經驗 【Qualifications】 1. 熟悉 ML 相關知識 2. 熟悉Python程式語言,以pyspark模組為主 3. 熟悉Linux 系統操作 4. 熟悉資料庫程式語言 SQL 【Preferred Qualifications】 1.具備機器學習平台經驗,例如 KubeFlow、MLflow 或 Vertex AI 2.具備API設計與實作經驗 3.具備使用 AWS Kinesis、Spark Streaming 等串流工具的經驗 4. 具有數位廣告相關經驗 6. 具有分散式運算的相關知識,如 Spark、Hadoop、Hive 7. 有使用過GCP, AWS 等雲端服務經驗佳 【加分項目】 熟悉scale, JAVA 熟悉資料湖相關技術 統計學專長
應徵
10/28
咖米股份有限公司其它軟體及網路相關業
台北市中正區5年以上專科以上
【擴編】資深數據分析師|Senior Data Analyst Kamee咖米是結合科技與健康的品牌。 希望藉由數據替每個人打造專屬於自己的個人化健康方案,帶給世界更美好的生活! 主要提供服務包含【客製化保健品訂閱服務】及【智能健康評估系統】 ★ 咖米獲選經濟部FINDIT早期投資系列活動企業 ★ Google台灣區Project Hatcher的合作企業 ★ 鴻海集團旗下康聯生醫的戰略合作夥伴 ★ 成為北美矽谷加速器暨創投基金SparkLabs Taiwan Portfolio 我們創造開放、共享的企業文化,重視成員身心內外成長, 相信只有擁有共同目標和願景的團隊,才能一起共創未來! ▼ 咖米官網: https://kameelife.com ▼ 臺北國際會議中心產品發布會: https://youtube.com/watch?v=Qw_dZzjFFEE&feature=share7 ▼ EE TIMES國際媒體專訪: https://www.linkedin.com/feed/update/urn:li:activity:7080444553702342656 —— 我們需要 —— ■【擴編】資深數據分析師|Senior Data Analyst Kamee 正在從成長型新創邁向數據驅動決策階段, 我們需要一位能讓數據成為商業引擎的夥伴。 你將整合公司數據資料,建立自動化報表與成長模型, 讓數據不只是報表,而是驅動品牌成長的動力。 —— 你的目標 —— ■整合行銷、營運、CRM、訂閱與網站數據資料,打造能驅動成長的數據基礎。 ■分析行銷、營運與顧客行為,洞察 CAC、ROAS、LTV、留存等核心指標背後的成長關鍵點。 ■與行銷、產品、營運等部門合作,發掘成長機會並優化用戶體驗。 ■建立資料驅動文化,推動公司長期決策與預測模型的發展。 —— 期待的人 —— ■對數據有好奇心,會思考「數據想告訴我什麼真相」。 ■動手能力強、學得快,能自行接資料、建報表、跑分析,樂於優化流程。 ■具備商業敏銳度,能從數字理解營運邏輯與用戶行為。 ■擅長跨部門合作,能用數據推動行銷、工程、客服、財務更有效率地前進。 ■結果導向,重視實際成長與影響力,而非僅追求報表好看。 我們在尋找能從數據中發掘商業洞察,並以此幫助團隊推動決策的夥伴,不一定要有完整系統背景,只要具備強邏輯與實作力。 —— 經歷技能 —— 【經歷】 ■5年以上數據分析或相關經驗。 ■熟悉行銷或電商數據分析(懂 CAC、LTV、ROAS、留存率等概念)。 ■具跨部門溝通經驗,能用簡單語言說清複雜數據。 【技能】 ■熟悉 SQL、Python(或 R),能獨立清理與分析資料。 ■熟悉 GA4、Meta Ads、Google Ads、CRM 等數據串接與分析。 ■能操作 BI 工具(如 Looker Studio、Power BI、Tableau)建立互動式報表。 【加分條件】 ■熟悉 BigQuery、Redshift、Snowflake 或 API 串接整合 ■具備自動化報表或儀表板建置經驗(如 GA4、Looker Studio、Power BI) ■能運用 AI 工具(如 GPT、Gemini)輔助資料分析與模型優化 —— 主要職責 —— ■優化公司既有數據架構與自動化報表系統(GA4、CRM、投放平台、ERP、內部數據儀表板)。 ■協助行銷與產品團隊發現成長機會,分析行銷投放、顧客行為與營運成效,找出轉換與留存的驅動因素。 ■設計 CAC、ROAS、LTV、留存率等 KPI 模型與可追蹤機制。 ■跨部門協作,提供行銷與營運團隊所需的數據洞察,協助制定成長策略。 ■持續優化資料整合流程,建立公司未來資料科學基礎。 Report to Marketing head 在 Kamee,你的分析結果不只是一份報表, 而是會直接影響產品、行銷與營運策略的「決策引擎」。 如果你想親手打造一家健康科技品牌的數據策略,我們非常期待你加入! —— 薪資待遇 —— $70,000~$110,000/月 /月起(視能力與經驗彈性調整) 此職缺不接受遠端工作
應徵
08/13
台北市南港區經歷不拘大學
工作內容: 開發與維護自動化數據處理流程(ex: Pipeline、Airflow) 建置並優化各式網路爬蟲(ex: Requests、Playwright、Scrapy ) 使用 Django 開發後端服務與 API,串接資料庫與前端系統 操作並優化資料庫(MariaDB、Redis),確保效能與穩定性 在 AWS(EC2、S3、RDS 等)環境中部署、監控與維運服務 協作AI應用模型 必備條件: 熟悉 Python,能獨立開發爬蟲、資料處理與 API 熟悉 Django 後端框架與 RESTful API 開發 熟悉 SQL(MariaDB)與快取系統(Redis) 具備自動化排程與數據管道開發經驗 具備 AWS 雲端平台使用經驗(EC2、S3、RDS 等) 良好的溝通能力與跨部門協作經驗 加分條件: 熟悉 Docker 具備前端基礎(HTML / CSS / JavaScript)可進行簡單資料視覺化 具備 機器學習或深度學習專案經驗
應徵
10/15
台北市南港區7年以上大學以上
【崗位職責】 1) 負責公司內部資料平臺的規劃、開發與持續優化,保障資料的完整性、可用性與安全性。 2) 基於 AWS 雲平臺及主流服務(如 EC2、S3、Redshift、Glue、Lambda、Athena 等)設計並實現高可用、高性能的資料處理與分析系統。 3. 設計並實施可擴展的後端服務,支援資料流程處理、ETL 流程、API 介面與任務調度邏輯。 4. 搭建並維護資料視覺化與 BI 平臺(如 QuickSight等)。 5. 深度參與資料治理、資料建模、資料品質監控等體系建設。 6. 著重資料蒐集處理流程。 7. 與業務部門合作,提供穩定高效的資料分析支援。 【任職要求】 1) 資管/資工/電機相關大學以上學歷,10 年以上軟體發展經驗,其中 5 年以上後端系統開發經驗。 2) 精通至少一種主流程式設計語言(如 Python、Java、Go 等),並熟悉 SQL 與資料處理框架(如 Spark)。 3) 熟悉 AWS 雲平臺及主流服務(S3、Redshift、Glue、Lambda、Athena 等),具備實際專案執行經驗。 4) 有大型分散式系統或資料平臺建設經驗,具備良好的系統架構能力。 5) 熟悉資料建模、資料分層架構、資料治理理念。 6) 具備 BI 視覺化系統或報表平臺的搭建與運維經驗。 7) 較強的溝通能力、團隊協作精神和自我驅動能力。
應徵
07/24
台北市內湖區3年以上大學以上
【工作內容】 . 使用 Azure Databricks、Data Factory、Data Lake Gen2 等工具建立並維運 ETL 流程。 . 整合 ERP、CRM、IoT 等多來源資料,進行清洗與轉換並寫入 Azure Data Lake。 . 與資料科學團隊合作,提供模型所需的資料集與特徵工程支援(如 LightGBM、XGBoost)。 . 透過Power BI進行資料串接與報表資料結構設計,確保分析資料即時、準確。 . 撰寫技術文件,維護資料流程運作紀錄與治理機制。 【必要條件】 . 熟悉 Azure 平台操作(Databricks、Data Factory、Data Lake Gen2)。 . 熟悉 Python 語言,能獨立進行資料清洗與處理。 . 具 SQL 查詢能力與資料模型設計經驗。 . 有與資料科學或 BI 團隊協作經驗,熟悉 Power BI 或其他可視化工具資料串接。 【加分條件】 . 具備使用 LightGBM / XGBoost 經驗。 . 熟悉 Git、CI/CD、自動化流程或 Docker 等 DevOps 工具 . 有 Azure DP-203、DP-100 證照尤佳 . 英文讀寫能力佳,能閱讀技術文件與跨部門溝通
應徵
10/23
群光電能科技股份有限公司其他電子零組件相關業
新北市三重區5年以上大學以上
1.負責數據處理流程設計與最佳化,包括資料蒐集、清理、轉換處理 2.執行與設計特徵工程 ( Feature Engineering ),支援機器學習與統計模型的建立 3.規劃與開發ETL 流程,確保資料穩定傳輸與整合 4.設計並維護程式架構,確保效能、可擴展性與安全性 5.與資料科學家、後端工程師跨部門協作,理解資料需求 6.建立監控與視覺化工具,提升資料品質與系統可觀測性 7.撰寫架構與流程文件 工作技能: 1.精通Python,具備資料處理與自動化腳本開發能力 2.熟悉Git版本控制與團隊協作流程 3.熟悉Linux環境與指令操作 4.使用過並能設計資料演算函式庫:TensorFlow、PyTorch、Scikit-Learn、Numpy、Pandas 等 5.具備資料視覺化經驗 ( Grafana或其他相關工具 ) 6.有使用過大數據框架 ( Spark、Hadoop、Flink ) 經驗佳 7.有使用過資料管線自動化工具 ( Airflow ) 經驗佳 8.有SQL大規模數據轉換與查詢效能優化經驗佳 9.有Docker、Kubernetes等容器化與部署技術佳
應徵
10/27
新北市中和區2年以上碩士以上
【職位簡介】 作為東森得易購大數據中心的數據工程師,您將參與全通路電商、會員經濟、生醫保健、寵物與高端生活等關鍵業務的數據基礎建設,負責資料的整合、清洗、建模與串接。協助構建跨 TV、EC、OB/IB Call Center、Regal SPA、寵物雲、民調雲的「OneID資料湖」與 AI 大腦基礎平台,推動集團邁向 AI 自動化與千人千面精準行銷。 【工作內容】 • 建置並維護企業級數據平台(Data Warehouse / Data Lake / Microsoft Fabric / AWS S3 等) • 設計並開發 ETL/ELT 流程,處理會員、交易、商品、節目、行銷等核心資料 • 串接內部 ERP、CRM、CDP、API 或外部數據源,提升數據整合效率與一致性 • 與數據科學家、商業分析師合作,優化資料模型與查詢效能 • 支援 Power BI / Copilot BI / Tableau 等商業儀表板背後的資料管線與維運 • 管理資料版本與品質監控,確保資料可信、準確與即時
應徵
10/21
FPT_艾福提資訊有限公司電腦軟體服務業
台北市信義區5年以上學歷不拘
Build a universal data platform, meet real-time/offline computing and storage requirements; Define the data pipeline scheme according to the demand scenarios, and deliver it by multiple methods based on various infrastructure; Enhance the data platform, improve the stability and flexibility of data asset, and optimize the resource efficiency.
應徵
10/31
台北市南港區5年以上大學
Job Summary We are seeking a highly skilled and experienced Senior Data Engineer to join our growing data team. In this role, you will design, build, and maintain scalable data pipelines and infrastructure that support analytics, machine learning, and business intelligence initiatives. You will work closely with data scientists, analysts, and software engineers to ensure data is accessible, reliable, and secure. Key Responsibilities ■ Design and implement scalable data pipelines for real-time streaming and batch ETL/ELT processing. ■ Architect data storage solutions (data lakes, warehouses) to support diverse analytics and ML needs. ■ Develop and optimize real-time data streaming systems and corresponding dashboards. ■ Ensure data quality, integrity, security, and governance across systems. ■ Plan and execute data collection, storage, and maintenance strategies for varied requirements. ■ Collaborate with data scientists, analysts, and stakeholders to deliver business-driven data solutions. ■ Mentor junior engineers and promote data engineering best practices. ■ Monitor and enhance data infrastructure performance and scalability. Qualifications ■ 5+ years of data engineering experience. ■ Expertise in SQL, Python, and big data tools (e.g., Spark, Kafka). ■ Familiar with data representation tools (e.g., Tableau, Looker Studio, Superset). ■ Proficiency with cloud platforms (e.g., GCP, AWS, Azure) and data services (e.g., BigQuery, Snowflake). ■ Proven experience in real-time streaming systems, dashboard development, and large-scale ETL design. ■ Strong knowledge of data modeling, governance, and security practices. ■ Bachelor’s degree in Computer Science, Engineering, or related field (Master’s preferred). ■ Excellent problem-solving, collaboration, and communication skills.
應徵
10/29
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
10/29
台北市信義區3年以上大學
您是否渴望在金融科技的前沿,以前瞻數據、AI 與 LLM 技術驅動創新,塑造未來金融服務? 科技創研中心金融科技處,正積極尋找充滿熱忱、具備專業技能的 數據暨AI工程師 加入我們的創新團隊。您將負責金融科技領域的企業級數據平台、AI 平台及 LLM 相關基礎設施的開發、管理與優化,尤其著重於 Data Lakehouse 架構的實踐與 Denodo 虛擬化技術的應用,並參與大型語言模型 (LLM) 在金融領域的應用開發與部署,確保數據的安全性、高效傳輸與穩定運作,為金融 AI/LLM 應用與策略決策提供堅實的技術後盾,助力提升金融服務的競爭力與創新能力。如果您對數據工程、AI/LLM 工程在金融領域的應用充滿熱情,並熟悉 Data Lakehouse、Denodo 等先進技術,且對 LLM 的發展與應用有深入了解,渴望在充滿挑戰與成長的環境中發揮所長,誠摯邀請您加入我們! 【工作職責】 •Data Lakehouse 平台開發與管理: 負責金融科技領域基於 Data Lakehouse 架構的數據平台設計、開發、部署、維護與優化,整合結構化與非結構化數據,提供彈性高效的數據存儲與分析能力,以支持 LLM 相關應用所需的大規模數據。 •Denodo 虛擬化平台管理與開發實作: 負責 Denodo 虛擬化平台的設計與管理,實現多個異質數據源的邏輯整合,提供統一的數據存取介面,簡化數據獲取流程,以支援 LLM 應用所需的多樣化數據來源。 •數據管道開發: 設計並實作高效能的 ETL/ELT 流程,處理多元金融數據來源 (例如:交易數據、市場數據、客戶數據、文本數據等),確保數據的準確性、完整性與即時性,並能有效整合至 Data Lakehouse 或透過 Denodo 進行虛擬化,以供各單位進行分析與應用。 •數據整合與清理: 負責數據的整合、轉換、清理、標準化與特徵工程,提高數據品質,為後續的數據分析、風險模型、 AI 模型與 LLM 的訓練及微調 奠定良好基礎,並考量 Data Lakehouse 的數據治理與管理。 •AI/LLM 平台管理: 負責企業 AI 平台、LLM 相關基礎設施 (例如:GPU 伺服器、模型儲存、API 部署等) 及 MLOps 流程的維護、管理與優化,確保企業內 AI/LLM 模型開發、訓練、微調與安全部署流程的順暢與高效,符合金融保險行業的合規要求,並能有效利用 Data Lakehouse 中的數據。 •LLM 應用開發與部署: 參與金融領域大型語言模型 (LLM) 的應用開發、測試與部署,例如:AI Agent、文本分析、資訊抽取、內容生成等。 •數據監控與效能調校: 開發與運營數據管道、數據庫、Data Lakehouse、AI 平台及 LLM 應用 的監測機制,進行效能分析與調校,確保系統的穩定運行與高效能,並符合系統穩定性的嚴格要求。 •跨部門協作: 與AI 科學家、IT 部門、Biz部門 (例如:通路、核保、商品等) 等緊密合作,深入了解企業業務需求與痛點,提供穩健且高效的數據與 AI/LLM 平台解決方案,並能利用 Data Lakehouse 和 Denodo 提供的能力。
應徵
11/03
台北市大安區1年以上大學以上
【About Us】 歡迎加入「國泰健康管理」!我們是一個充滿活力、追求創新、以數據和科技驅動健康管理變革的團隊!在這裡,你將與一群熱愛科技、關心健康、充滿創造力的夥伴並肩作戰,共同探索智能健康的無限可能。 我們相信「想要健康不能靠感覺」,而是基於精準數據的科學管理。 我們的使命是:整合數位、數據和 IT 技術,打造個人化的健康管理解決方案,讓人人都能擁有健康自信的人生,實踐『健康就在生活裡,解方就在數據裡』 【We Need You to …】 1.應用服務開發與維護 • 開發與維護數據應用服務(API),確保業務服務穩定運行。 • 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 • 建立與管理 CI/CD Pipeline,提升開發與部署效率。 • 持續監控服務效能,進行問題排查、升級與最佳化。 【About You】 • 熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 • 熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 • 了解容器化技術(Docker、Kubernetes)。 • 了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【Plus】 • 具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 • 具備 Terraform 或其他 IaC 工具經驗。 • 具備 DevOps / Cloud Engineer 相關工作經驗。 • 具備網路/資訊安全管理經驗。 • 具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/30
恆昌科技有限公司電腦軟體服務業
台中市西屯區2年以上專科
工作內容: 1.ETL流程設計和實施數據提取、轉換和加載流程,從體育數據源(賽事結果、玩家行為等)獲取數據,處理後加載至數據倉庫。 2.建立數據質量控制機制,確保數據的準確性、完整性和一致性,支持平台數據驅動決策。 3.整合賽事數據、用戶行為數據和交易等營運數據,建立統一數據源,支持報表生成和數據圖像化並進行數據分析找出潛在優化的機會。 4.監控和優化ETL流程性能,確保實時數據處理效率,支持即時分析和報告需求。 5.設計符合監管要求的數據處理流程和制度,支持風險管理和安全審計需求。 職務條件: 1.精通ETL工具(如Apache NiFi、Talend等)與SQL數據庫(MySQL、PostgreSQL),具備數據倉庫設計經驗 2.熟悉Python/Java/Scala等編程語言,能夠開發數據處理腳本和自動化流程 3.具備數據質量管理和數據治理經驗,熟悉批處理和實時數據處理技術 4.了解Airflow、Kafka、Spark等大數據工具及雲服務平台數據服務,對體育數據特性有基本認識 5.參與前瞻技術研究,確保公司數據技術維持競爭力
應徵
10/29
果友科技有限公司電腦軟體服務業
台北市大安區1年以上學歷不拘
我們正在尋找一位具備後端架構思維的「數據工程師」,能與企業客戶的數據分析、工程團隊協作,打造穩定且可擴展的數據處理流程。 這份職缺主要任務是設計並維運高可靠性的 ETL 與 Airflow 數據流程,確保資料能自動化運行、正確轉換,成為企業決策與 AI 應用的核心動能。 【工作內容】 1. 規劃、開發與維運企業級 ETL 數據流程,確保資料高效流轉與品質穩定 2. 使用 Apache Airflow 建立自動化排程與監控機制,確保任務準時執行與可追蹤性 3. 使用 Python(pandas、numpy 等)進行資料清理、轉換與整併,支援分析與應用服務 4. 負責 MongoDB 的資料設計、查詢效能優化與維運管理 5. 需「派駐」至健康管理企業現場,協助數據流程導入與落地 【必備技能】 - 精通 Python 程式設計與數據處理(pandas、numpy) - 具備 ETL / Airflow 實務經驗(包含 DAG 設計、排程與監控) - 具良好資料處理邏輯與數據品質控管概念 - 熟悉 Git 版本控制與 CI/CD 自動化部署流程(ex: GitHub Actions 或 GitLab CI) 【加分技能】 1. MongoDB 架構設計與操作 2.. 具備資料倉儲或數據湖架構經驗 3. 資訊工程、資訊管理、數學、統計等相關背景尤佳 【我們的願景】 加入果友科技,與我們一起打造穩健的數據基礎設施,讓資料在企業間流動得更順暢,持續以數據創造影響力 有興趣者歡迎投遞履歷或直接聯繫我們,期待你的加入!
應徵
10/30
果友科技有限公司電腦軟體服務業
台北市大安區1年以上學歷不拘
我們正在尋找一位具備後端思維的數據工程師,與企業客戶的產品與分析團隊合作,打造高品質的數據供應與自動化環境。 你的主要任務是確保數據能穩定流動、被正確處理與自動化運作,成為支撐企業決策與AI應用的堅實基礎。 【工作內容】 1. 設計、開發與維護數據流程(Data Pipeline),打造穩定且高效的數據基礎架構 2. 使用 Python(pandas、numpy 等)進行數據清理、轉換與處理 3. 建立與維護 ETL 流程,確保資料品質、完整性與可追溯性 4. 建置與串接 API 與外部資料源,整合成統一的資料服務 5. 將數據處理流程自動化,並協助部署至雲端或容器化環境(如 Docker) 6. 需「派駐」至健康管理企業現場,協同客戶團隊實作與優化數據架構 【必備技能】 - Python:具備後端開發與數據處理能力,熟悉 pandas、numpy 等數據處理套件 - API 建置與整合:具備 FastAPI 建置與類似框架設計與串接經驗 - 資料流程思維:能理解資料從來源到應用的完整流向,具備基礎 ETL 概念 【加分技能】 1. 熟悉 Docker 或其他容器化技術,能協助部署與環境管理 2. 熟悉雲端平台(AWS、GCP、Azure等),具雲端自動化部署經驗 3. 擁有資訊工程、資訊管理、數學、統計相關背景者尤佳 【我們的願景】 加入果友科技,與我們一起用數據創造影響力。 這裡是讓你深入理解企業實際運作、與資料應用團隊並肩打造自動化數據服務的最佳舞台。 有興趣歡迎投遞履歷或直接聯繫我們,期待你的加入!
應徵
10/29
四零四科技股份有限公司電腦系統整合服務業
新北市新莊區8年以上大學以上
Purpose of this Position: Moxa IT is a professional information technology team to handle IT services and infrastructure globally. We are looking for creative & self-motivated talent to join as to help us even further. We're searching for an experienced data analyst to join our team. The candidate should be equipped with knowledge of data governance, project management skills, and be highly skilled in all aspects of data analytics, including mining, generation, and visualization and be committed to transforming data into readable, goal-oriented reports that drive innovation and growth. Major Areas of Responsibility: 1. As a PM and technical leader to work with users and IT teams to gather requirements, plan and manage required tasks, and solve problems. 2. Collect, clean, and validate data from multiple internal and external sources. 3. Identify trends and opportunities through analysis of complex datasets. 4. Create best-practice reports based on data mining, analysis, and visualization. 5. Support business units with ad-hoc analyses and data-driven recommendations. 6. Collaborate with cross-functional teams (e.g., business, product, engineering, marketing) to define data requirements. 7. Evaluate internal systems for efficiency, problems, and inaccuracies, and develop and maintain IT services for handling, processing, and cleaning data. 8. Support Moxa to develop data governance and ensure data accuracy, integrity, and compliance with data governance standards. 9. As a trainer to develop IT team members data analyst skills.
應徵
11/01
台北市中山區1年以上大學以上
【關於我們】 我們是一家不斷追求創新的領先旅行社。在數位時代,我們深信「數據」是引領我們航向未來的羅盤。我們致力於將龐雜的旅遊數據——從航班動態、飯店預訂到客戶行為軌跡——轉化為驅動決策的洞見與創造個人化體驗的魔法。為此,我們正在尋找一位數據領域的築夢師,與我們一同打造堅實、智慧的數據基石。 【這個角色為何關鍵?】 您將是我們數據驅動策略的核心架構師。您所建構的每一條 Data Pipeline,都將成為公司營運的動脈,穩定地輸送著決策所需的血液。您參與的每一個機器學習專案,都可能催生出下一個顛覆市場的旅遊產品或服務。您的工作將直接賦能市場、產品、營運等團隊,讓我們的決策更精準,服務更貼心。 工作內容 (Key Responsibilities) 1. 數據管道 (Data Pipeline) 的設計與開發: 主導使用 Apache Airflow 設計、開發、部署與維護可擴展、高效率的自動化數據工作流 (DAGs)。 負責從多元數據源(包含內部資料庫、第三方旅遊供應商 API、網站使用者行為 Log、行銷平台數據等)進行數據提取 (Ingestion)、轉換 (Transformation) 與載入 (ETL/ELT)。 確保數據的品質、完整性與一致性,並建立完善的監控與警報機制。 2. 專案性機器學習 (ML) 開發與整合: 跨部門合作,挖掘具商業價值的機器學習應用場景。 負責機器學習專案中的數據前處理、特徵工程 (Feature Engineering)、模型訓練與驗證。 協助將訓練好的模型部署到生產環境,並與現有系統整合。 3. 數據基礎設施與架構優化: 參與數據倉儲 (Data Warehouse) 或數據湖 (Data Lake) 的架構設計與效能調校。 與後端工程師協作,確保數據收集與儲存的效率與規範。 探索並導入新興的數據技術與工具,持續提升團隊的數據處理能力。
應徵