104工作快找APP

面試通知不漏接

立即安裝APP

「資料分析工程師」的相似工作

侍達遊戲藝術有限公司
共501筆
精選
台北市信義區3年以上大學以上
【主要職責】 - 設計並維護 自動化資料驗證框架(Automation Framework),覆蓋 batch 與 streaming pipeline。 - 針對 Kinesis、Kafka、Airflow、MySQL、Redshift 等環境執行資料驗證與轉換測試。 - 開發與執行測試計畫,驗證資料擷取(Ingestion)、轉換(Transformation)與載入(Loading)的準確性。 - 監控資料流程,偵測並通報資料異常、延遲、遺失等問題。 - 與 Data Engineer 合作解決 pipeline、schema、metadata 相關問題。 - 驗證資料模型、ETL/ELT 流程與商業邏輯的一致性與正確性。 - 建立並維護 QA 文件,包括 Test Case、Runbook、Validation Report。 - 參與資料平台版本釋出與更新,確保新功能與數據流穩定。 - 實作 資料品質指標(Data Quality Metrics) 與警報機制,用於即時與排程任務監控。 【任職資格】 - 3 年以上 Data QA、Data Engineering 或相關經驗。 - 精通 SQL(MySQL / Redshift),能撰寫複雜查詢與資料驗證邏輯。 - 熟悉 Streaming 系統(Kinesis、Kafka)資料流測試與監控。 - 具 Airflow 或其他資料流程編排工具實務經驗。 - 熟悉 Python,用於資料驗證與自動化測試腳本撰寫。 - 理解資料倉儲架構、ETL/ELT 流程與資料建模。 - 有大型資料集處理與效能調校經驗。 - 了解 Schema 演進、Data Contract 與 Metadata 管理概念。 【加分條件】 - 有 AWS 生態系操作經驗(S3、Lambda、Glue、IAM)。 - 熟悉資料治理與法規遵循(GDPR、CCPA)。 - 具測試框架經驗(PyTest、Great Expectations)。 - 熟悉 CI/CD 流程並能應用於資料工作流測試。 【軟技能與團隊特質】 - 對資料準確性、流程穩定性與品質具有高度責任感。 - 細心、有條理,具備優秀的問題分析與溝通能力。 - 樂於與跨部門合作(Data Engineer、Analyst、PM),共同提升資料品質。 - 具持續學習與探索新技術的動能。 【工作地點】 - 台北市(近捷運站) - 提供彈性上班制度與國際化數據團隊合作環境 【我們提供】 - 具競爭力的薪資與年度獎金制度 - 三節禮金與年度健康檢查 - 彈性上下班與混合辦公制度 - 國際化團隊合作與跨國職涯發展機會
應徵
10/14
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
10/21
台北市中山區2年以上大學
【工作內容】 1. 將概念性想法設計規劃為可執行的解決方案 2. 大數據專案的規劃,數據接入、清洗、建模與可視化的設計 3. 與機器學習工程師、雲端架構師、PM密切合作共同合作完成專案,供客戶高質量的雲端數據相關服務 4. 負責協助客戶整合、設計、部署大數據處理流程與平臺 5. 探索雲端服務組合的可能性,創造全新的可能性 【必備技能/條件】 1. 3 年以上資料排程、處理、清洗、分析的實務經驗 2. 2 年以上資料處理常用的 Open Source 工具的實務經驗,eg. Spark, Airflow, hadoop 3. 2 年以上Python / Java 程式語言開發相關工作經驗 4. 擅長解決問題、除錯、故障排除,提出問題解決方案 【加分條件】 1. 具備BigQueryRDBMSNoSQL使用經驗 2. 具備爬蟲相關經驗 3. 熟悉 Restful API
應徵
10/13
朋昶數位科技股份有限公司電腦系統整合服務業
台北市中山區3年以上大學
MongoDB、IBM DB2、Cloudera等產品之協銷與建置服務工作 1. 針對資料庫產品提供架構規劃及系統建置 2. 偕同業務與客戶進行產品介紹、架構規劃簡報 3. 參與公司產品推廣活動、擔任資料庫訓練講師
應徵
10/20
極風雲創股份有限公司網際網路相關業
台北市信義區3年以上專科
工作內容 極風雲創致力於拓展 AI 驅動的應用資安智能解決方案與服務,我們正在尋找具備創新思維與跨領域整合能力的資料工程師,一起打造具影響力的產品,推動企業數位轉型與智慧防禦。 【主要職責】 負責AI訓練前置資料整理與轉換,資安資料、資安產品日誌資料、法規資料等等,將相關資料進行數據分類與建庫,以及優化AI抽取的資料庫語法優化與效能提升。 【職務需求】 • 具備 高度企圖心、責任感與自我驅動力,勇於挑戰並樂於學習新事物。 • 優秀的 溝通與協調能力,能快速理解問題並提出具體解決方案。 • 具備 AI / 資料庫建置與管理,相關經驗,熟悉RAG向量資料庫建置,及MYSQL ELK 等等使用相關經驗 • 對 AI 應用、雲端平台或資安領域 有濃厚興趣或相關經驗。 • 需要與資安工程師、法務等等,將文件與資料進行向量資料庫建置與管理,以及與前後端工程師溝通討論串接API與測試RAG效果,並與AI訓練工程師,提供AI訓練品質與精準度。 我們提供 • 參與 AI + 資安 相關產品研發,影響未來數位防禦的機會。 • 彈性且具挑戰性的工作環境,鼓勵創新與跨域合作。 • 完整的職涯發展與學習資源,讓你在 AI 與雲端資安領域快速成長。 【 職位條件】 • 電腦科學、資訊工程、資訊管理或相關科系學士/碩士學位 • 具備 AI或資料庫相關產品開發相關背景者佳 • 具備問題解決、創新能力,推動團隊達成目標
應徵
10/16
先悅資訊有限公司工商顧問服務業
台北市信義區2年以上專科
使用Trinity等工具開發ETL 熟悉SQL和StoreProcedure
應徵
10/20
云智資訊股份有限公司其它軟體及網路相關業
台北市松山區3年以上專科以上
1. 會SQL語法、ETL經驗(會Trinity尤佳),具有資料分析經驗。 2. ETL和資料庫(具Greenplum/MS SQLserver)經驗佳。 3. 有使用business objects經驗佳。 (如沒有經驗,有學習意願即可)
應徵
10/16
台北市松山區1年以上大學
COMMEET (https://commeet.co) 擴大徵才,歡迎有熱情之新夥伴加入我們的行列 [工作內容] 1 整理、標記數據,以確保數據的準確性與可靠性 2 建立/維護/優化資料處理流程與架構(data pipeline) 3 跟相關的stakeholder合作,解決並優化他們的數據需求 4 其它主管交辦事項。 [必要條件] • 從業人員恪守客戶個資保護敏感度及尊重客戶資料隱密性 • 熟悉 ML/DL • 熟悉 python 語言與相關資料庫 (csv、postgres、redis、excel) • 熟悉圖表可視化(Visualization),以及圖表分析能力 • 熟悉 git 版本控制 • 如線上初試通過者,將安排線下複試,複試安排 leetcode [加分項目] • 具有 OCR 處理數據經驗 • 有kaggle 等競賽平台經驗 • 有新創公司經驗 • 有FinTech 或 ERP/CRM 經驗 [人格特質] • 獨立作業的能力 • 細心負責任 • 勇於溝通,樂於表達自己的想法 • 喜歡主動學習新技術,願意與團隊研究及分享技術新知
應徵
10/15
台北市南港區7年以上大學以上
【崗位職責】 1) 負責公司內部資料平臺的規劃、開發與持續優化,保障資料的完整性、可用性與安全性。 2) 基於 AWS 雲平臺及主流服務(如 EC2、S3、Redshift、Glue、Lambda、Athena 等)設計並實現高可用、高性能的資料處理與分析系統。 3. 設計並實施可擴展的後端服務,支援資料流程處理、ETL 流程、API 介面與任務調度邏輯。 4. 搭建並維護資料視覺化與 BI 平臺(如 QuickSight等)。 5. 深度參與資料治理、資料建模、資料品質監控等體系建設。 6. 著重資料蒐集處理流程。 7. 與業務部門合作,提供穩定高效的資料分析支援。 【任職要求】 1) 資管/資工/電機相關大學以上學歷,10 年以上軟體發展經驗,其中 5 年以上後端系統開發經驗。 2) 精通至少一種主流程式設計語言(如 Python、Java、Go 等),並熟悉 SQL 與資料處理框架(如 Spark)。 3) 熟悉 AWS 雲平臺及主流服務(S3、Redshift、Glue、Lambda、Athena 等),具備實際專案執行經驗。 4) 有大型分散式系統或資料平臺建設經驗,具備良好的系統架構能力。 5) 熟悉資料建模、資料分層架構、資料治理理念。 6) 具備 BI 視覺化系統或報表平臺的搭建與運維經驗。 7) 較強的溝通能力、團隊協作精神和自我驅動能力。
應徵
10/20
台北市大安區1年以上大學以上
【About Us】 歡迎加入「國泰健康管理」!我們是一個充滿活力、追求創新、以數據和科技驅動健康管理變革的團隊!在這裡,你將與一群熱愛科技、關心健康、充滿創造力的夥伴並肩作戰,共同探索智能健康的無限可能。 我們相信「想要健康不能靠感覺」,而是基於精準數據的科學管理。 我們的使命是:整合數位、數據和 IT 技術,打造個人化的健康管理解決方案,讓人人都能擁有健康自信的人生,實踐『健康就在生活裡,解方就在數據裡』 【We Need You to …】 1.應用服務開發與維護 • 開發與維護數據應用服務(API),確保業務服務穩定運行。 • 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 • 建立與管理 CI/CD Pipeline,提升開發與部署效率。 • 持續監控服務效能,進行問題排查、升級與最佳化。 【About You】 • 熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 • 熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 • 了解容器化技術(Docker、Kubernetes)。 • 了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【Plus】 • 具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 • 具備 Terraform 或其他 IaC 工具經驗。 • 具備 DevOps / Cloud Engineer 相關工作經驗。 • 具備網路/資訊安全管理經驗。 • 具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/20
咖米股份有限公司其它軟體及網路相關業
台北市中正區5年以上專科以上
【擴編】資深數據分析師|Senior Data Analyst Kamee咖米是結合科技與健康的品牌。 希望藉由數據替每個人打造專屬於自己的個人化健康方案,帶給世界更美好的生活! 主要提供服務包含【客製化保健品訂閱服務】及【智能健康評估系統】 ★ 咖米獲選經濟部FINDIT早期投資系列活動企業 ★ Google台灣區Project Hatcher的合作企業 ★ 鴻海集團旗下康聯生醫的戰略合作夥伴 ★ 成為北美矽谷加速器暨創投基金SparkLabs Taiwan Portfolio 我們創造開放、共享的企業文化,重視成員身心內外成長, 相信只有擁有共同目標和願景的團隊,才能一起共創未來! ▼ 咖米官網: https://kameelife.com ▼ 臺北國際會議中心產品發布會: https://youtube.com/watch?v=Qw_dZzjFFEE&feature=share7 ▼ EE TIMES國際媒體專訪: https://www.linkedin.com/feed/update/urn:li:activity:7080444553702342656 —— 我們需要 —— ■【擴編】資深數據分析師|Senior Data Analyst Kamee 正在從成長型新創邁向數據驅動決策階段, 我們需要一位能讓數據成為商業引擎的夥伴。 你將整合公司數據資料,建立自動化報表與成長模型, 讓數據不只是報表,而是驅動品牌成長的動力。 —— 你的目標 —— ■整合行銷、營運、CRM、訂閱與網站數據資料,打造能驅動成長的數據基礎。 ■分析行銷、營運與顧客行為,洞察 CAC、ROAS、LTV、留存等核心指標背後的成長關鍵點。 ■與行銷、產品、營運等部門合作,發掘成長機會並優化用戶體驗。 ■建立資料驅動文化,推動公司長期決策與預測模型的發展。 —— 期待的人 —— ■對數據有好奇心,會思考「數據想告訴我什麼真相」。 ■動手能力強、學得快,能自行接資料、建報表、跑分析,樂於優化流程。 ■具備商業敏銳度,能從數字理解營運邏輯與用戶行為。 ■擅長跨部門合作,能用數據推動行銷、工程、客服、財務更有效率地前進。 ■結果導向,重視實際成長與影響力,而非僅追求報表好看。 我們在尋找能從數據中發掘商業洞察,並以此幫助團隊推動決策的夥伴,不一定要有完整系統背景,只要具備強邏輯與實作力。 —— 經歷技能 —— 【經歷】 ■5年以上數據分析或相關經驗。 ■熟悉行銷或電商數據分析(懂 CAC、LTV、ROAS、留存率等概念)。 ■具跨部門溝通經驗,能用簡單語言說清複雜數據。 【技能】 ■熟悉 SQL、Python(或 R),能獨立清理與分析資料。 ■熟悉 GA4、Meta Ads、Google Ads、CRM 等數據串接與分析。 ■能操作 BI 工具(如 Looker Studio、Power BI、Tableau)建立互動式報表。 【加分條件】 ■熟悉 BigQuery、Redshift、Snowflake 或 API 串接整合 ■具備自動化報表或儀表板建置經驗(如 GA4、Looker Studio、Power BI) ■能運用 AI 工具(如 GPT、Gemini)輔助資料分析與模型優化 —— 主要職責 —— ■優化公司既有數據架構與自動化報表系統(GA4、CRM、投放平台、ERP、內部數據儀表板)。 ■協助行銷與產品團隊發現成長機會,分析行銷投放、顧客行為與營運成效,找出轉換與留存的驅動因素。 ■設計 CAC、ROAS、LTV、留存率等 KPI 模型與可追蹤機制。 ■跨部門協作,提供行銷與營運團隊所需的數據洞察,協助制定成長策略。 ■持續優化資料整合流程,建立公司未來資料科學基礎。 Report to Marketing head 在 Kamee,你的分析結果不只是一份報表, 而是會直接影響產品、行銷與營運策略的「決策引擎」。 如果你想親手打造一家健康科技品牌的數據策略,我們非常期待你加入! —— 薪資待遇 —— $70,000~$110,000/月 /月起(視能力與經驗彈性調整)
應徵
10/21
台北市大安區1年以上專科以上
【工作內容】 1.應用服務開發與維護 開發與維護數據應用服務(API),確保業務服務穩定運行。 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 建立與管理 CI/CD Pipeline,提升開發與部署效率。 持續監控服務效能,進行問題排查、升級與最佳化。 【技能需求】 1.熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 2.熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 3.了解容器化技術(Docker、Kubernetes)。 4.了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【加分項目】 1.具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 2.具備 Terraform 或其他 IaC 工具經驗。 3.具備 DevOps / Cloud Engineer 相關工作經驗。 4.具備網路/資訊安全管理經驗。 5.具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/17
台北市內湖區3年以上大學以上
1. 熟悉 SQL Server、MySql、MongoDB 建置、管理、維護。 2. T-SQL 及 Stored Procedure 效能調校。 3. 資料庫日常監控、異常排除及系統性能優化。 4. 具 DB HA 架構建置和維護經驗。 5. 提供 RD 諮詢並給予建議,進行 DB-Schema 建置與異動的工作。 6. 資料庫備份管理、災難復原及定期系統升級或更新。
應徵
10/17
特雷維科技有限公司電腦軟體服務業
台北市信義區2年以上大學以上
【職缺描述】 1、數值設計與驗證:根據產品需求進行遊戲數值設計,並使用模擬器與工具進行大量數據模擬,以驗證遊戲的各項指標符合設計目標。 2、數據報告產出:定期產出數值模擬報告,並協助分析數據,確保遊戲在開發與測試階段的數據表現穩定。 3、工具鏈維護:協助維護與更新數值部門的工具鏈(如 Excel 數值表、配置檔),確保其可用性與準確性。 4、協作與溝通:與團隊緊密合作,確保遊戲的數值邏輯在開發過程中被準確實現。 【職務需求】 1、工作經驗 2 年以上,若該領域經歷超過 5 年以上,可不需具備下述學歷預期,以實際參與專案經驗為主。 2、學歷至少具有其一或相關領域學士學位或以上學位「數據分析、統計學、數學、經濟學、資訊管理」。 3、熟悉至少一種程式語言,具備撰寫模擬程式或自動化腳本的能力。 4、能夠讀懂既有的程式碼並進行維護或優化。 5、紮實的數學與統計基礎:對機率、統計有基本理解,能夠進行基礎的數據分析與報表產出。 6、邏輯思維:具備良好的邏輯推理能力,能夠將遊戲規則轉化為數學模型,並找出潛在的數值問題。 7、細心與耐心:能夠處理大量重複的數值驗證工作,並確保數據準確無誤。 8、溝通能力:能夠清晰地向團隊成員解釋自己的工作內容與發現的數值問題。 【加分項目】 1、有老虎機、桌面遊戲遊玩經驗,對遊戲數值有直觀的感知佳。 2、具備 Excel 數值表或遊戲模擬器的開發經驗佳。 如有特別優秀者,薪資可以面議討論。
應徵
10/19
台北市大安區3年以上大學以上
【負責品牌】 全球LGBTQ+娛樂領導平台 GagaOOLala https://www.gagaoolala.com/en/home 【工作內容】 ●數據分析與報告: 1.管理影音串流OTT平台數據資料,透過資料分析和監測,確保平台營運維持良好狀態。 2.定期更新例行數據報表,從中提出具洞察力的分析,發現異常能即時查找原因並進行分析,提出建議措施與可執行之方案,並積極反應給相關單位進行處理。 ●提出洞察與建議: 1.能夠將數據分析結果轉化為具體行動建議,理解需求後提出具策略性的建議以提升業務效能。 2.進行資料整合分析,促進會員增長、用戶黏著度提升,並提升MA/MarTech、廣告、會員、UX等業務效益。 ●數據專案管理: 1.擔任與工程師及資料科學家溝通窗口,確保數據的準確性及應用需求,並在數據分析中提供解決方案,推動業務目標的達成。 【職務條件】 -精通 GA4 及其他第三方追蹤工具。 -具備基本SQL及資料庫概念,能進行除錯與調整。 -精通 Excel(如樞紐分析、VLOOKUP、各類函數)。 -具備網站和APP邏輯架構基礎認知,曾擔任PM或CSM者尤佳。 -使用過BI工具並具備視覺化數據呈現能力。 -具備商業化思維,能將數據分析結果應用於行銷優化與業務成效提升。
應徵
10/20
果友科技有限公司電腦軟體服務業
台北市大安區1年以上學歷不拘
我們正在尋找一位具備後端架構思維的「數據工程師」,能與企業客戶的數據分析、工程團隊協作,打造穩定且可擴展的數據處理流程。 這份職缺主要任務是設計並維運高可靠性的 ETL 與 Airflow 數據流程,確保資料能自動化運行、正確轉換,成為企業決策與 AI 應用的核心動能。 【工作內容】 1. 規劃、開發與維運企業級 ETL 數據流程,確保資料高效流轉與品質穩定 2. 使用 Apache Airflow 建立自動化排程與監控機制,確保任務準時執行與可追蹤性 3. 使用 Python(pandas、numpy 等)進行資料清理、轉換與整併,支援分析與應用服務 4. 負責 MongoDB 的資料設計、查詢效能優化與維運管理 5. 需「派駐」至健康管理企業現場,協助數據流程導入與落地 【必備技能】 - 精通 Python 程式設計與數據處理(pandas、numpy) - 具備 ETL / Airflow 實務經驗(包含 DAG 設計、排程與監控) - 具良好資料處理邏輯與數據品質控管概念 - 熟悉 Git 版本控制與 CI/CD 自動化部署流程(ex: GitHub Actions 或 GitLab CI) 【加分技能】 1. MongoDB 架構設計與操作 2.. 具備資料倉儲或數據湖架構經驗 3. 資訊工程、資訊管理、數學、統計等相關背景尤佳 【我們的願景】 加入果友科技,與我們一起打造穩健的數據基礎設施,讓資料在企業間流動得更順暢,持續以數據創造影響力 有興趣者歡迎投遞履歷或直接聯繫我們,期待你的加入!
應徵
10/21
台北市大同區1年以上大學以上
聯華食品是一家兼容並蓄,不斷創新的食品公司(股票代號:1231) -定期市場薪資調查,維持薪資競爭力! -年度依照公司、人員績效發放獎金! -超完善員工教育訓練,切換環境不怕生! -未來您將參與建構大規模、高品質的資料基礎設施,這些資料將被應用於機器學習模型訓練與部署,支援企業導入 AI 解決方案(如預測性維護、需求預測、客戶行為分析等)。 工作內容 (Responsibilities / Job Duties) 1. 規劃、建構與維運 ETL / ELT 資料管道 (data pipelines),利用 Azure Databricks、Azure Data Factory、Azure Data Lake Gen2 等工具整合多源資料(例如 ERP、IoT、API、第三方資料等)。 2. 資料清洗與預處理:處理缺失值、異常值、資料一致性與格式轉換;進行特徵工程以支持分析或模型建置。 3. 資料模型與架構設計:與業務及內部需求單位合作,理解業務流程與需求,設計資料湖/資料倉儲/中間層 (staging) 架構及 schema,以支持報表、BI 分析與機器學習應用。 4. 可視化 & BI 支援:串接資料至可視化儀表板 (dashboard),提供業務決策者關鍵指標 (KPI)、報表與資料洞察。 5. 資料流程治理與品質控制:撰寫與維護流程文件與技術文件;監控資料品質(資料完整性、準確性、一致性、時效性等);設定錯誤檢測與告警機制;管理 metadata。 6. 效能與成本管理:優化資料管道效能(如資料轉換效率、儲存成本、計算運算資源使用等),監控資源使用情形,提出改善方案。 必需能力 • 熟練 Python(資料清洗、批次處理、腳本自動化等) • 精通 SQL,能設計資料模型與優化查詢效能 • 熟悉 Azure 平臺資料服務:Databricks, Data Factory, Data Lake Gen2 等操作與部署 • 熟悉 ETL 工具與資料流程設計、維運經驗;能處理資料整合、清洗與轉換 • 能與業務/需求單位溝通,理解業務場景並將之轉化為資料需求與解決方案 • 撰寫清晰的技術文件與流程文件;具備流程監控與錯誤處理能力 • 熟悉 Pentaho ETL(或類似 ETL 平台)操作與維護 加分能力 • 熟悉流資料處理技術 (例如 Kafka, Azure Event Hubs 等) • 有機器學習模型建置與部署經驗者佳 • 熟悉資料治理 (data governance)、metadata 管理、資料安全及隱私保護規範 • 熟悉 BI / 可視化工具(如 Tableau、Power BI 等),能設計與實作儀表板與報表可視化 • 有雲端成本管理、資源最佳化經驗(例如儲存與計算資源之間的 trade off) • 具備版本控制 (Git)/CI/CD 工作流程經驗;有大型或跨部門專案協作經驗;有團隊領導或指導新人經驗者優先 福利制度面 : 1. 薪資福利:可依學、經歷核薪。 2. 依據公司經營狀況發放績效獎金、年終獎金等。 3. 每年國內外員工旅遊(依福委會當年決定) 4.完善的外部教育訓練(工作時也同步成長學習,增加自我價值) 5.三節/年終/團保/定期AND不定期聚餐/超殺員購優惠
應徵
10/21
明門實業股份有限公司其他運輸工具及零件製造修配業
台北市內湖區3年以上大學
Job Description : We are seeking a savvy Data Engineer to join our growing team. This position will be at the forefront of data infrastructure development and will be responsible for expanding and optimizing our data and data pipeline architecture. The ideal candidate will be an experienced data pipeline building and data wrangler who enjoys optimizing data systems and building them from the ground up. This person must be self-directed and comfortable supporting the data needs of multiple ongoing projects. The right candidate will be excited by the prospect of optimizing and designing our company’s data architecture to support our next generation of data initiatives. Responsibilities: 1. Assembling large, complex sets of data that meet non-functional and functional business requirements 2. Developing and maintaining data pipelines from various data sources for efficient ETL processes using Fivetran, DBT, and Snowflake. 3. Ensuring data quality and integrity through data validation, cleansing, error handling, and security measures 4. Identify, design, and implement internal process improvements: automating manual processes, optimizing data delivery, re-designing infrastructure for greater scalability, etc.
應徵
10/16
台北市大同區經歷不拘大學以上
【工作內容】 1.協助客戶安裝與部署 Pentaho 產品,包括 Pentaho Data Integration(PDI)、Pentaho Server 和 Pentaho Report Designer。 2.使用 ETL 工具(Pentaho PDI、Talend、Informatica、Microsoft SSIS 等)進行數據抽取、轉換與載入,確保資料正確性與完整性。 3.熟悉 Python 或 Java 等程式語言,能撰寫 ETL 腳本與自動化流程。 4.設計並維護 Data Model,建立高效、可擴充的數據架構。 5.開發與維護 Data Warehouse,確保數據一致性、完整性與可靠性。 6.熟悉 SQL 與常見資料庫(RDBMS / NoSQL),能分析並解決複雜的資料問題。 7.協助客戶安裝與配置 OpenMetadata,並整合至既有數據管理環境。 8.使用 OpenMetadata 平台建立與維護數據資產目錄,協助定義數據標準、數據政策與分類。 9.整合 OpenMetadata 與其他數據管理工具(ETL、資料庫、BI 工具等)。 10.撰寫專案與技術文件,包括安裝手冊、教育訓練教材與客戶需求文件。 11.參與客戶需求訪談,協助規劃與導入完整的數據平台解決方案。 12.其他主管交辦事項。 【必要條件】 1.具備 SQL 語法與資料結構基礎,理解 Data Flow 並能應用於實務案例。 2.熟悉 ETL 工具操作與數據處理邏輯。 3.至少熟悉一種程式語言(Python / Java),能進行自動化與流程開發。 4.理解 Data Model 設計理論並具備實務經驗。 5.良好的溝通能力,能與客戶合作並釐清需求。 6.具備獨立作業與問題解決能力,能快速學習新技術。 【加分條件】 熟悉 Pentaho PDI 或 OpenMetadata 平台。 具備 Data Warehouse、資料治理、資料湖泊等相關經驗。 有報表系統(如 Pentaho Report Designer、Power BI、Tableau)應用經驗。 瞭解雲端數據平台(如 AWS Redshift、GCP BigQuery、Snowflake)尤佳。 具備教育訓練、技術文件撰寫與客戶導入顧問經驗。 【發展方向】 短期(1–2 年):熟悉 Pentaho / OpenMetadata / DWH 平台導入,能獨立執行專案模組。 中期(2–4 年):成為能夠進行跨系統數據整合與數據治理規劃的顧問。 長期(5 年以上):成長為資料架構師 / 雲端數據平台專家,能帶領團隊規劃企業級數據平台。
應徵
10/21
沛然資訊有限公司電腦軟體服務業
台北市內湖區3年以上碩士以上
Risksoft Technology Ltd, 沛然科技有限公司專注於金融科技(FinTech)與應用,致力於將金融數據與決策模型轉化為高效、且行動的專業工具。 客戶涵蓋銀行、券商、量化基金、私募機構與企業財務部門,產品應用於資產配置、風險監控與跨市場操作等關鍵場景中。我們開發可用於決策的高互動行動應用,誠摯邀請對產品品質與金融邏輯有熱情的夥伴加入我們的團隊。 【工作內容】 1. 台清交成資工系學碩士優先 2. 優秀IT科技理工且對量化投資有興趣者 3. 負責開發、建設及管理公司資料基礎架構,協助團隊實現數據的收集、處理及儲存,確保資料的可用性、準確性和安全性 4. 設計並實施高效的資料管道(ETL流程) 5. 管理並維護資料庫和資料存儲系統 6. 資料整合與處理,包括從多個來源收集資料並轉換為可分析的格式 7. 協作開發數據基礎設施,支援資料科學家和分析師的需求 8. 進行資料的清洗、變換及加載,確保數據質量 9. 與產品及技術團隊合作,確保資料架構的擴展性與穩定性
應徵
10/16
上洋產業股份有限公司家庭電器/設備及用品批發業
新北市五股區2年以上專科
數據驅動決策與營運最佳化是上洋邁向智慧營運的重要一步。我們正在尋找一位對資料工程具備熱情與專業的資料工程師(Data Engineer)。 此角色需主動與資料分析、軟體開發、產品與營運等部門合作,設計與維運可靠的資料流程與平台,確保資料正確、安全、即時,協助公司從資料中創造價值,推動數位轉型與業務洞察。 身為資料工程師,你/妳將會執行以下內容: 1.設計、建置與維護資料處理流程(ETL/ELT),整合內外部與異質、結構化、非結構化資料來源(如 RDB、logs、API 回傳、第三方數據)。 2.架構與管理資料倉儲與資料湖,確保資料可追蹤、可擴展與高效能。 3.協助資料分析團隊取得所需資料,建立並維護標準化資料模型與資料目錄。 4.實作資料清理與驗證機制,監控資料異常、延遲與品質偏差。 5.持續評估並導入新工具、新技術(如自動化資料管道、容器化部署),提升資料處理流程的自動化與穩定性。 6.撰寫與維護資料處理程式(以 Python 為主) 7.利用視覺化工具(如 Superset、Metabase)打造即時儀表板,協助團隊快速洞察關鍵指標。 8.快速理解並分類商用需求,將業務需求轉化為具體的資料解決方案。 9.與資料科學家、分析師密切協作,若具備機器學習 Pipeline 或模型部署經驗更佳。
應徵