104工作快找APP

面試通知不漏接

立即安裝APP

「【外商】資深數據工程師 Sr. Data Engineer (Finance Department)」的相似工作

烽泰科技有限公司
共501筆
精選
宏穩投資股份有限公司其他投資理財相關業
台北市信義區3年以上大學
【工作內容】 • 參與證券交易相關系統之開發與維護(C# / .NET / C++) • 與交易員合作開發與維運交易策略程式 • 負責功能測試、效能測試、系統穩定性確認 • 協助主管與工程團隊完成日常技術任務 【我們希望你具備】 • 3 年以上軟體開發經驗 • 熟悉 C# or C++ • 熟悉windows系統 • 對金融或交易系統有興趣 • 能獨立負責任務,同時具備團隊合作能力 • 追求卓越,注重細節,對成果負責。 【加分項目】 • 熟悉股票/期貨的交易流程 • 具股票/期貨策略程式開發經驗(如:接收券商行情/介接券商API下單...等)
10/15
株式会社シエス情報電腦系統整合服務業
日本3年以上大學以上
招募台灣地區工程師 公司提供簽證的更新以及新規簽證。 可提供高度人才簽證(5年)額外加20分,提早取得永久居留權。 執行案件為一般商業、金融案件居多,會派至委託公司駐點或在宅。 【工作內容】 1.負責軟體之分析、設計以及程式撰寫。 2.規劃執行軟體架構及模組之設計,並控管軟體設計進度。 3.進行軟體之測試與修改。 4.規劃、執行與維護量產的產品。 5.協助研發軟體新技術與新工具。 【工作職缺】Python軟體開發工程師(工作經驗三年以上) 【徵求條件】JAVA,NET,C#C,C++,Python,salesforce,SAP,PHP,IOS,Android,AWS,React.Ruby.C# (其中有一至兩項擅長的項目歡迎詢問) *無日文N1以上(可無檢定證書,但需聽說讀寫流利)請勿投遞履歷,國外遠端工作不可* 【工作地點】日本關東地區 【工作時間】9:00-18:00 中午休息1小時(依客戶現場為主) 【公司制度】1.提供雇用保險、健康保險、年金保險 2.完全週休2日、GW/夏休/年末年始連休 3.工作產生的交通費實報實銷 4.一年一度健康檢查
應徵
10/17
群越廣告科技有限公司電腦軟體服務業
台北市松山區3年以上大學以上
我們尋找一位資料敏銳度高、擁有穩健工程實作力的資料工程師,加入我們的遊戲推薦系統開發團隊! 這個職位非常適合熟悉 資料處理流程、具備 API 設計與部署經驗、懂得 推薦模型訓練實務,並熱衷於將 AI 技術應用在真實產品場景中的人才。 你將參與我們打造高效能推薦系統的核心挑戰之一:處理高頻率、多次存取的推薦查詢問題(Multiple Access / Frequent Access Patterns)。在實務上,推薦系統需支援大量使用者在極短時間內反覆觸發推薦請求(如首頁刷新、排行榜滑動、活動推薦等),對於資料快取策略、查詢優化、線上/離線計算資源分配都提出極高要求。 我們期望你能透過設計 穩定高效的資料管線與特徵服務(Feature Store),結合良好的 API 封裝,確保推薦服務在多次存取場景下依然具備良好延遲控制與回應品質,讓系統在真實流量下穩健運作、持續為玩家提供個性化、即時的推薦體驗。 線上視訊筆試,請 share screen 解題: Python 操作 SQL 語法(PyMySQL) Flask API 封裝與邏輯設計 Numpy 矩陣操作與轉換 Multithreading 多執行緒概念與應用 PyTorch 假碼撰寫與推薦演算法說明 必備條件(務必具備): Python 資料處理能力強,熟悉生態系統:pandas、numpy、pyMysql、SQLAlchemy 熟練 SQL 查詢與資料倉儲操作,具備處理大型資料集的經驗 實際操作過 Flask API 設計與服務包裝 理解推薦系統與分類/排序模型的運作,具備實作經驗 熟悉模型部署工具,例如 Flask / FastAPI、joblib、ONNX、MLflow 等 具備跨部門溝通能力與資料產品思維,能獨立拆解與解決資料問題 加分條件(非必要,但會加分) 使用過雲端資料平台:BigQuery、Snowflake、Redshift 有推薦模型訓練與優化經驗:如 DNN-based 矩陣分解、Pairwise Ranking、Embedding 模型 熟悉 強化學習、Bandit Algorithm 在推薦系統中的應用 曾設計過 AB test 並執行評估分析 實作過 Feature Store、推薦 pipeline 框架設計經驗
應徵
10/20
台北市大安區1年以上大學以上
【About Us】 歡迎加入「國泰健康管理」!我們是一個充滿活力、追求創新、以數據和科技驅動健康管理變革的團隊!在這裡,你將與一群熱愛科技、關心健康、充滿創造力的夥伴並肩作戰,共同探索智能健康的無限可能。 我們相信「想要健康不能靠感覺」,而是基於精準數據的科學管理。 我們的使命是:整合數位、數據和 IT 技術,打造個人化的健康管理解決方案,讓人人都能擁有健康自信的人生,實踐『健康就在生活裡,解方就在數據裡』 【We Need You to …】 1.應用服務開發與維護 • 開發與維護數據應用服務(API),確保業務服務穩定運行。 • 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 • 建立與管理 CI/CD Pipeline,提升開發與部署效率。 • 持續監控服務效能,進行問題排查、升級與最佳化。 【About You】 • 熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 • 熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 • 了解容器化技術(Docker、Kubernetes)。 • 了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【Plus】 • 具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 • 具備 Terraform 或其他 IaC 工具經驗。 • 具備 DevOps / Cloud Engineer 相關工作經驗。 • 具備網路/資訊安全管理經驗。 • 具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/14
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
10/18
緯創軟體股份有限公司電腦軟體服務業
新北市汐止區2年以上大學以上
此職缺為集團資訊總部職務,非駐點性質工程師。 【職務描述】 • 設計與建置資料平台與資料中心,具備 Hadoop 生態系統(HDFS / Hive / YARN / HBase 等)建置與維運經驗 • 導入並維運資料平台與相關基礎設施,熟悉 Airflow、Nifi、Spark 等工具 • 規劃整體資料架構與數據流程,設計高可擴展與高效能的 ETL / ELT pipeline • 規劃資料表 schema 與資料模型,根據業務需求進行資料分區、快取策略與資料分層設計 • 協助數據團隊部署並維運機器學習模型(ML model),支援模型部署、版本管理與效能監控 • 與資料科學家、後端工程師、業務團隊密切合作,協助將模型推進至企業應用 • 建置資料平台相關的 CI/CD 流程,導入自動化測試與監控 • 監控資料流程效能與品質,進行異常檢測與自動警示設定 • 研究資料工程與 MLOps 領域新技術PoC,執行技術驗證並提出導入建議 入 【必要條件】 • 具備 3 年以上資料工程相關經驗,熟悉 ETL 流程與Hadoop 生態系建置與維運經驗 • 熟練 Python 與 SQL,能撰寫高效能的資料處理與轉換邏輯 • 熟悉資料處理工具與框架,如 Apache Airflow、Apache Nifi、Spark 等 • 熟悉 Git 與 CI/CD 工作流程,能維護自動化部署與測試機制 • 具備主動學習與問題解決能力,能獨立完成技術探索與 PoC 驗證 • 具備部署與維運機器學習模型經驗,了解模型訓練/部署/監控完整流程 現在就加入WITS團隊吧! 我們重視創新與高效,致力於為每一位員工提供最佳的工作環境,夥伴將擁有的MacBook Air M1筆電,使您能夠流暢地處理各種工作任務,並提供一台28寸的4K外接螢幕,提高工作效率和舒適度!
應徵
10/15
葳誠科技有限公司電腦系統整合服務業
台中市西屯區3年以上大學以上
固定駐點在外商客戶端(不會變更) 目前急需的是地端環境(SQL SSIS)需要能馬上上手 主要職責: 產業Knowhow 可以訓練,職務需求技能需熟練,能依照指示獨立作業 · 與(客戶端用戶)合作,定義滿足業務需求的要求,同時遵守全球標準和實踐 · 開發和設計視覺化製造智慧解決方案,包括在 Power BI 中開發儀表板、Microsoft Analysis Services 以支援 KPI 的製造營運和效能指標相關分析 · 開發自動化、整合、清理和維護製造資料來源品質和完整性的 ETL · 根據業務分析需求設計資料模型和資料架構。整合各種資料集並建立視覺化資料模型 · 與業務用戶進行資料驗證,編寫測試腳本並記錄缺陷 · 支援營運任務進行問題/請求管理和維護,制定並實施解決問題根本原因的解決方案 · 監控和解決與數據相關的問題,及時提供解決方案和支持,以最大限度地減少停機時間和中斷 所需技能: · 本科以上學歷(資訊科技、電腦科學、軟體工程、工業工程、應用數學、統計學、管理學) · 擁有 3 年使用 Microsoft SQL Server Business Intelligence Development Studio(SSIS、SSRS、SSAS、Power BI)和資料倉儲管理的經驗 · 具備 3 年商業智慧等級職位(分析、商業智慧或儀表板經驗)經驗 · 擁有在全天候製造環境中使用 IT 系統的經驗 · 具有推動和提供新功能以改善業務部門營運的經驗,這些營運符合既定標準和整體 IT 策略方向 · 強大的溝通、演示、組織和協調能力(包括在業務和技術需求之間「轉化」的能力) · 具有良好的持續確定優先順序和高效處理多任務的能力。 · 具有良好的團隊合作精神,人際溝通能力強,並能獨立工作 · 具備良好的中英文口說、寫作及演講能力,TOEIC 600分以上 所需技能: · 了解製造流程和製造執行系統 · 具備 Python 或 R 經驗者優先 · 微軟認證等業界認可的認證 · 商業智慧知識:SQL、Power BI、Tableau · 擁有實施滿足業務需求且技術完善的 IT 解決方案的良好記錄。 · 了解專案生命週期和應用程式生命週期方法。 · 能夠根據經驗和對專案策略意圖的理解,以批判性思考影響決策 Key Responsibilities: · Collaborate with business users to define requirements that meet business needs while adhering to global standards and practices · Develop and design visual Manufacturing Intelligence solutions, including developing dashboards in Power BI, Microsoft Analysis Services for KPI's supporting manufacturing operational and performance metrics related analytics · Develop ETL that automate, integrate, cleanse, and maintain manufacturing data source quality and integrity · Design data models and data architecture based on business analysis requirements. Integrate various datasets and build data models for visualization · Perform data validation with business user, write test scripts and record defects · Support operation tasks in conducting issue/request management and maintenance, develop and implement resolutions that address the root cause of problems · Monitor and troubleshot data-related issues, providing timely resolution and support to minimize downtime and disruption Required Skills: · Bachelor’s Degree above (Information Technology, Computer Science, Software Engineering, Industrial Engineering, Applied Mathematics, Statistic, Management) · 2 years of experience using Microsoft SQL server Business Intelligence Development Studio (SSIS, SSRS, SSAS, Power BI) and data warehouse management · 2 years of Business Intelligence level role in Analytics, Business Intelligence or Dashboards experience · Experience working with IT systems in a 24/7 manufacturing environment · Experience in driving and delivering new capabilities to improve business unit operations that are in keeping with established standards and the overall IT strategic direction · Strong communication, presentation, organizational and facilitation skills (including ability to “translate” between business and technology needs) · Good ability to continuously prioritize and multitask efficiently. · Good team player with interpersonal skills and the ability to work independently · Good English & Chinese communication in speaking, writing and presentation, TOEIC 600 and above Desired Skills: · Knowledge of manufacturing process and manufacturing execution systems · Experience with Python, R is a plus · Industry-recognized certification such as Microsoft certification · Business Intelligence Knowledge: SQL, Power BI, Tableau · Proven track record of implementing IT solutions that meet business demands and are technically sound. · Knowledge of project life cycle and application life cycle methodologies. · Ability to influence decisions with critical thinking based upon experience and understanding of the strategic intent of the project
應徵
10/16
域動行銷股份有限公司廣告行銷公關業
台北市松山區1年以上大學以上
公司介紹: 域動行銷是中華電信集團轉投資公司之一,成立於2009年,致力於提供創新的數位廣告解決方案,當中包含廣告系統DSP、SSP、CDP、混血數據及廣告聯播網等,我們通過創新的行銷技術解決方案來推動廣告和數據分析的發展,同時專注於行銷科技領域,提供前瞻性的觀點,引領數據行銷的未來。 組織介紹: 域動Data Team是由一群對『數據分析』及『AI應用』具有研究及開發熱誠的成員所組成。在這裡你可以接觸到大量即時的使用者行為資料,並將資料科學模型應用於: 『網路廣告投放優化』 『網路用戶辨識』 『消費者行為分析』 我們更致力於尋找優化方案,改善產品體驗設計及為商業決策提供數據支持,提升效率和價值。我們鼓勵組員多方嘗試、思考、展現天馬行空的創意,且能清楚闡述想法,付諸實踐。 【Job Description】 • 須熟悉python, 尤其是對pyspark操作有經驗 • 具備優化資料流和處理效率的專業知識,以及處理每日一億筆記錄的資料吞吐量的經驗 • AWS、GCP 等雲端平台的實務經驗 • 熟練開發強大的data pipeline,包括資料收集和 ETL(擷取、轉換、載入)流程 • 具備設計和實施資料平台各種元件的經驗,包括資料攝取、儲存、資料倉儲、資料編排 • 持續整合和持續部署(CI/CD)流程的經驗 【Qualifications】 1. 熟悉 ML 相關知識 2. 熟悉Python程式語言,以pyspark模組為主 3. 熟悉Linux 系統操作 4. 熟悉資料庫程式語言 SQL 【Preferred Qualifications】 1.具備機器學習平台經驗,例如 KubeFlow、MLflow 或 Vertex AI 2.具備API設計與實作經驗 3.具備使用 AWS Kinesis、Spark Streaming 等串流工具的經驗 4. 具有數位廣告相關經驗 6. 具有分散式運算的相關知識,如 Spark、Hadoop、Hive 7. 有使用過GCP, AWS 等雲端服務經驗佳 【加分項目】 熟悉scale, JAVA 熟悉資料湖相關技術 統計學專長
應徵
10/15
台北市南港區7年以上大學以上
【崗位職責】 1) 負責公司內部資料平臺的規劃、開發與持續優化,保障資料的完整性、可用性與安全性。 2) 基於 AWS 雲平臺及主流服務(如 EC2、S3、Redshift、Glue、Lambda、Athena 等)設計並實現高可用、高性能的資料處理與分析系統。 3. 設計並實施可擴展的後端服務,支援資料流程處理、ETL 流程、API 介面與任務調度邏輯。 4. 搭建並維護資料視覺化與 BI 平臺(如 QuickSight等)。 5. 深度參與資料治理、資料建模、資料品質監控等體系建設。 6. 著重資料蒐集處理流程。 7. 與業務部門合作,提供穩定高效的資料分析支援。 【任職要求】 1) 資管/資工/電機相關大學以上學歷,10 年以上軟體發展經驗,其中 5 年以上後端系統開發經驗。 2) 精通至少一種主流程式設計語言(如 Python、Java、Go 等),並熟悉 SQL 與資料處理框架(如 Spark)。 3) 熟悉 AWS 雲平臺及主流服務(S3、Redshift、Glue、Lambda、Athena 等),具備實際專案執行經驗。 4) 有大型分散式系統或資料平臺建設經驗,具備良好的系統架構能力。 5) 熟悉資料建模、資料分層架構、資料治理理念。 6) 具備 BI 視覺化系統或報表平臺的搭建與運維經驗。 7) 較強的溝通能力、團隊協作精神和自我驅動能力。
應徵
10/16
台北市松山區1年以上高中
與售前團隊協作,共同完成客戶驗証所需的開發項目,您應可獨立開發系統串接、ETL/ELT 、dbt 核心資料模型建置。 在工作過程中,您會面對客戶、進行每日開發說明與進度匯整,需習慣自主進度掌控。 開發項目主要以資料串接、程式資料處理 (python / dbt)、雲資料處理 (aws glue / gcp workflow) 等為主。 【我們希望你】 一定要對開發工作具有熱情與自我學習不斷精進的渴望,遇到問題時,能獨立查找與判斷解決方案的可行性,若遇到無法解決的問題,也懂得如何清楚論途與提問,樂於與同仁們分享技術新知、提升自我能力,當挑戰尚不熟悉的工作內容時,充滿戰鬥力。 【職務需求】 熟悉 Python, SQL 熟悉 dbt, Airflow (Google Cloud Composer & MWAA) 熟悉 Star Schema / Snowflake Schema 設計 熟悉 Modern Data Stack 熟悉 PostgreSQL, MySQL, MongoDB 任一一種資料庫 熟悉 在雲端(AWS 為主,GCP/Azure 為輔)建置與部署資料流與資料庫。 【加分項】 熟悉 BigQuery or Redshift 熟悉 Glue or Dataflow 熟悉 Lambda or Cloud Run
應徵
10/05
炬識科技股份有限公司電腦軟體服務業
台北市中山區1年以上大學
炬識科技(Athemaster)2024.05 宣布,推出全新資料品質產品「Athemaster DQSentry」,幫助企業掌控真實資料品質,將企業資料產製成具更高商業價值的企業專屬大型語言模型等資料產品,加速AI數位轉型進程。 ▎你想知道的 Athemaster: 請前往:https://linktr.ee/athemaster ▎Athemaster | 你會遇見這10種生活方式 https://reurl.cc/koZGGr ▎Why Join Us ● 2種開發模式:瀑布 & 敏捷 雙刀流 [ 獲台灣敏捷協會 #2024 #2025 敏捷大賞獎 ] ● 5種職系任你混搭搭配:每年依照個人意願打造專屬的成長路徑與職涯,不是工作量增加,而是組合技增加。 ● 25堂阿基米德創客間:雙週五的固定學習講座課程,來自內部6個社群與聘請外部講師共學。 ● 98% 以上機率可以 Work & Life Balance:此為所有專案成員的共同目標,並且認真執行。 ● 200個以上的學習資源:包含線上課、電子書、實體書及多樣化的學習方式。 ▎Job Description 參與內外部專案,幫助企業客戶運維 Data infra(資料基礎建設)、研發 Data pipeline(資料管線) 與 Data products(資料產品),整合與提升企業商務系統,以滿足 Data-Driven 數據驅動之轉型目標。並與團隊一起發展 Athemaster 2.0 data project 方法論。 ▎主要工作內容 - Data pipeline 設計 - Data pipeline 程式撰寫與測試 - Data pipeline 部署與維運 - Data products 之運維(Data Products:例如資料表、演算法(模型)、API、儀表板或應用系統) ▎我們希望你有的經驗跟特質 - 對 Data-Driven Business 和 Data Engineering 有極大的熱情。 - 了解架構資料平台所需的相關技術,例如 RDBMS, NoSQL DB, Search Engine, Data Warehouse, Event Streaming Platform 等。 - 有 ETL 或資料分析案之專案經驗。 - 樂於與團隊互動、與客戶合作,並回應變化,願意了解客戶產業的領域知識以開發可用的軟體。 - 認同溝通的雙向性,職務內所需之訊息主動聽取、提出必要問題以正確理解,不依靠他人作為自己的眼睛、耳朵與嘴巴。 - 認同權限與責任對等原則,尊重擔負責任者經共識活動後的最終決策,並接受自己角色範圍內的指派。 - 認同角色範圍內個人能力應穩定輸出,達成預期之客戶價值。認同喜好或優先於團隊的個人考慮並非挑撿任務之合理原因。 - 樂於學習最新的技術,隨時充實自我的專業技能。 ▎應徵條件 - 熟悉 Python 程式語言。Athemaster主要用 Python & Java。 - 熟悉至少一種 SQL **與** NoSQL 資料庫的運用。例如 MySQL、PostgreSQL、Mongo 任一種。 - 具有分散式運算的相關知識。例如 Spark、Hadoop、Hive、impala、kafka等。 - 熟悉 Git, Jenkis, Airflow 等 Data Pipeline 開發關聯系統之使用。 - 至少 3 年工作經驗 - 1 年以上擔任 Data Engineer 角色參與專案之經驗,並熟悉 ETL 流程 ▎加分條件 - 願意參與 Data infra 維運(Data Infra:各種儲存結構化或半結構化資料的系統)。 - 願意參與運維最佳化系統效率與穩定度,架構高速、穩定且容易擴充的計算平台。 - 具有使用 NoSQL 的實務經驗。例如 HBase、Cassandra、Redis、MongoDB 等一種或多種相關技術。 - 具有使用 Streaming 資料處理系統的實務經驗。例如 Spark-streaming、Kafka、Flink 等。 - 具有使用 ETL Tool 資料整合工具的實務經驗。例如 Informatica, NiFi, Pentaho 等。 - 熟悉任一種視覺化工具。例如 Tableau, Power BI, Redash 等。
應徵
10/20
HUA AO_香港商創金科技有限公司其它軟體及網路相關業
台北市大同區2年以上專科
【工作內容】 1. 熟練掌握 SQL、Python,瞭解數據建模理論 2. 熟悉數據倉庫工具(如 Snowflake、Redshift、BigQuery、Databricks 等) 3. 使用 BI 可視化工具(如 Power BI、Tableau、Looker) 4. 有支付相關業務(如交易數據、支付成本、渠道分潤)分析經驗 5. 具 ETL 構建經驗,熟悉 Airflow、DBT 等數據編排工具經驗 【加分條件】 有參與資料平台、BI 系統或數據倉儲專案的經驗,能獨立完成中小型任務 熟悉 Git、CI/CD、Docker 等基礎 DevOps 工具者佳 參與團隊數據治理與標準制定經驗者尤佳 具備良好的跨部門溝通與協作能力,能協助推動任務執行與進度管理
應徵
10/14
聯和科創股份有限公司電腦系統整合服務業
台北市中山區5年以上大學
此職務你會與其他管理、PM、工程師夥伴們一起優化產品系統,透過數據分析提供團隊數據進而提供策略性的建議,一同打造更好的操作介面。 1. 數據閱讀與分析能力。 2. 統整數據、用戶研究、市場分析後,根據目標打造符合市場需求的功能。 3. 與研發、設計、測試團隊緊密合作,制定符合成本效益的產品規格。 4. 訂定、追蹤專案時程、測試及後續上線後的成效追蹤和維運管理。 5. 質量管理:監控專案的質量標準,確保交付的成果符合組織的質量期望,推動和實施質量改進措施。 6. 專業發展:持續學習和更新專業知識。 7. 參與業內研討會和培訓,了解最新的專案管理趨勢。 8. 協作和培養領導力:促進協作和團隊合作,建立正面的工作環境。培養自身領導力,激勵團隊成員達成共同的目標。 9. 風險管理:識別、評估和管理專案可能面臨的風險,並制定應對策略以最大程度地減少對專案的影響。 10. 報告與評估:定期向管理層報告專案進度、問題和解決方案,並根據專案結束時的結果進行評估和學習。 【加分條件】 1. 熟悉Linux 指令、Windows cmd 指令、Apache、Nginx、和 SSH key
應徵
10/16
台北市大同區經歷不拘大學以上
【工作內容】 1.協助客戶安裝與部署 Pentaho 產品,包括 Pentaho Data Integration(PDI)、Pentaho Server 和 Pentaho Report Designer。 2.使用 ETL 工具(Pentaho PDI、Talend、Informatica、Microsoft SSIS 等)進行數據抽取、轉換與載入,確保資料正確性與完整性。 3.熟悉 Python 或 Java 等程式語言,能撰寫 ETL 腳本與自動化流程。 4.設計並維護 Data Model,建立高效、可擴充的數據架構。 5.開發與維護 Data Warehouse,確保數據一致性、完整性與可靠性。 6.熟悉 SQL 與常見資料庫(RDBMS / NoSQL),能分析並解決複雜的資料問題。 7.協助客戶安裝與配置 OpenMetadata,並整合至既有數據管理環境。 8.使用 OpenMetadata 平台建立與維護數據資產目錄,協助定義數據標準、數據政策與分類。 9.整合 OpenMetadata 與其他數據管理工具(ETL、資料庫、BI 工具等)。 10.撰寫專案與技術文件,包括安裝手冊、教育訓練教材與客戶需求文件。 11.參與客戶需求訪談,協助規劃與導入完整的數據平台解決方案。 12.其他主管交辦事項。 【必要條件】 1.具備 SQL 語法與資料結構基礎,理解 Data Flow 並能應用於實務案例。 2.熟悉 ETL 工具操作與數據處理邏輯。 3.至少熟悉一種程式語言(Python / Java),能進行自動化與流程開發。 4.理解 Data Model 設計理論並具備實務經驗。 5.良好的溝通能力,能與客戶合作並釐清需求。 6.具備獨立作業與問題解決能力,能快速學習新技術。 【加分條件】 熟悉 Pentaho PDI 或 OpenMetadata 平台。 具備 Data Warehouse、資料治理、資料湖泊等相關經驗。 有報表系統(如 Pentaho Report Designer、Power BI、Tableau)應用經驗。 瞭解雲端數據平台(如 AWS Redshift、GCP BigQuery、Snowflake)尤佳。 具備教育訓練、技術文件撰寫與客戶導入顧問經驗。 【發展方向】 短期(1–2 年):熟悉 Pentaho / OpenMetadata / DWH 平台導入,能獨立執行專案模組。 中期(2–4 年):成為能夠進行跨系統數據整合與數據治理規劃的顧問。 長期(5 年以上):成長為資料架構師 / 雲端數據平台專家,能帶領團隊規劃企業級數據平台。
應徵
10/13
創代科技股份有限公司工商顧問服務業
台北市中山區1年以上碩士以上
我們正在尋找一位 Mid-Level 的數據工程師 (Data Engineer),主要負責 資料庫建置、ETL 流程設計與開發、數據處理與分析。目前創代科技曾執行過的專案包含了 大型語言模型產品開發(涵蓋雲端、地端、雲地混合方案)、深度學習開發(產品洞察與行為預測、時間序列預測、路線最佳化)、機器學習應用(各產業客戶的資料探勘與分析)、數據中台建置(含資料正規化、ETL 建置、導入 dbt、snowflake)!我們現在手上有各種類型的專案等著你來玩! 為什麼選擇創代科技? 創代科技是一家提供數據科學顧問服務的公司,業務涵蓋 零售、交通、物流、航運、電信、能源、犯罪、災防 等多元領域,並持續拓展至其他前沿產業。在這裡,你將接觸到多樣化的數據場景,包括乾淨度各異的資料與高度客製化的架構設計,讓你在解決各種挑戰中快速成長。 如果你熱愛學習新技術、探索創新解決方案,那麼在創代擔任數據工程師,將是你的最佳選擇。 ✅ 【職責內容】 1. 資料庫設計:熟悉資料庫概念,協助建置與維護資料倉儲、資料湖跟資料中臺。 2. ETL 或 ELT 流程開發:協助客戶建立基於地端或是雲端的資料流架構,整合多元數據來源(結構化與非結構化),構建高效數據處理系統,確保資料一致性與完整性。 3. 數據處理與協作:與資料科學家、資料分析師及後端工程師協作,處理 Data Pipeline 建置及數據收集、探勘與轉換。 4. 協助客戶工具導入:協助客戶翻新原有 Pipeline,並導入 dbt、snowflake等。 ✅ 【我們期待你具備】 1. 學歷背景:具備碩士學位, 資訊工程、資訊管理、資料科學、數學、統計、電機相關領域加分。 2. 專業技能: - 熟悉數據處理與分析,具備 ETL / ELT 流程開發與維護經驗。 - 熟悉 關聯式資料庫(如 PostgreSQL)及 圖形資料庫(如 Neo4j),擁有資料倉儲建置與操作經驗。 - 熟悉 Linux 環境,並具備版本控制工具(如 Git)使用經驗。 - 熟悉 容器化技術(如 Docker、Kubernetes),了解其生產環境運行與管理。 - 具備 Airflow 排程管理及模型部署經驗。 ✅ 【加分條件】 - 雲端服務:熟悉 GCP、AWS、Azure,具備跨雲架構整合及服務部署能力。 - 分散式系統:有 Hadoop、Spark 開發經驗者尤佳。 - 資料庫工具:具備 dbt 或是 snowflake 導入或是使用經驗。 - DevOps 經驗:具備 CI/CD 自動化部署實作經驗。 - BI 工具:熟悉 Tableau、Looker、Power BI。 - 演算法基礎:理解機器學習、深度學習背後邏輯或是應用經驗。 ✅ 【薪資待遇】 - 面議,保障年薪 14 個月。 ✅ 【公司福利】 - 彈性上下班時間、彈性居家上班福利。 - 每月享有職員不扣薪福利假、生日當月再多一天生日假。 - 不定期員工聚餐、午餐、下午茶、出遊團康活動等。 - 公司零食區、冰箱飲料、咖啡櫃永遠補給充足,讓每位新進夥伴都保證先胖五公斤! - 保障年終獎金 2 個月,其他績效獎金還可以靠自己爭取,亦提供結婚、生育等各項禮金。 - 電腦設備:公司提供工作機,亦可自備設備並領取每月電腦補助費。 - 每年提供教育訓練補助。 - 提供定期健康檢查補助。 - 每年定期進行績效考核,讓職員的升遷與薪資調整更有依據與保障。 ✅ 此職缺定位為 Mid-Level,尋找 1 - 3 年經驗的人選
應徵
10/14
大數據股份有限公司其它軟體及網路相關業
台北市中山區3年以上大學以上
本公司為專業社群資料分析廠商,主要產品有《KEYPO大數據關鍵引擎》,透過深度學習在巨量社群資料中洞察網路口碑。本職務需熟悉web crawling techniques, automation, data storage, and data pipelines 【工作內容】 1.設計AI機器人(web crawler)架構,提升抓取的效率和品質 2.維護AI機器人(web crawler)可靠度與可用率 3.設計/優化資料管線與儲存架構 4.參與ETL設計與實作 5.RESTful API開發與維護 6.依能力調整Job Title(資深數據工程師/數據工程師) 【必要技能】 1.熟練運用AI工具進行開發上的協作 2.熟悉Python語法 3.充分了解HTML結構,能解析網頁交換資料的順序步驟  4.熟悉Git 5.熟悉Linux, Docker 6.熟悉web crawler套件與框架(如Scrapy、Puppeteer、Selenium) 【加分條件】 1.自動化測試:瞭解單元測試、整合測試或其他測試框架。 2.CI/CD 流程:在生產環境中曾使用 Jenkins、GitLab CI 等工具實現持續整合 與部署。 3.容器調度:熟悉 Docker Swarm、Kubernetes 等技術,建構高可用的微服務架構。 4.敏捷開發經驗:具備 Agile / Scrum 開發流程的實務經驗。 5.程式重構 / 大型專案架構設計:具備系統化思考與模組化拆分的能力。 6.Message Queue:如 RabbitMQ、Kafka等的使用經驗。
應徵
10/16
台北市南港區5年以上大學
Job Summary We are seeking a highly skilled and experienced Senior Data Engineer to join our growing data team. In this role, you will design, build, and maintain scalable data pipelines and infrastructure that support analytics, machine learning, and business intelligence initiatives. You will work closely with data scientists, analysts, and software engineers to ensure data is accessible, reliable, and secure. Key Responsibilities ■ Design and implement scalable data pipelines for real-time streaming and batch ETL/ELT processing. ■ Architect data storage solutions (data lakes, warehouses) to support diverse analytics and ML needs. ■ Develop and optimize real-time data streaming systems and corresponding dashboards. ■ Ensure data quality, integrity, security, and governance across systems. ■ Plan and execute data collection, storage, and maintenance strategies for varied requirements. ■ Collaborate with data scientists, analysts, and stakeholders to deliver business-driven data solutions. ■ Mentor junior engineers and promote data engineering best practices. ■ Monitor and enhance data infrastructure performance and scalability. Qualifications ■ 5+ years of data engineering experience. ■ Expertise in SQL, Python, and big data tools (e.g., Spark, Kafka). ■ Familiar with data representation tools (e.g., Tableau, Looker Studio, Superset). ■ Proficiency with cloud platforms (e.g., GCP, AWS, Azure) and data services (e.g., BigQuery, Snowflake). ■ Proven experience in real-time streaming systems, dashboard development, and large-scale ETL design. ■ Strong knowledge of data modeling, governance, and security practices. ■ Bachelor’s degree in Computer Science, Engineering, or related field (Master’s preferred). ■ Excellent problem-solving, collaboration, and communication skills.
應徵
10/16
台北市中正區1年以上大學
[Job Description] •Develop and maintain a web-based system for financial data processing. •Implement P&L calculations, exposure tracking, and performance reporting over user-defined periods. •Integrate market data and indicators or signals from the quant team to support trading strategies. •Process and analyze external financial data sources/APIs (e.g., Bloomberg). •Ensure data accuracy, system stability, and performance optimization. •Maintenance and implementation of machine learning models. [Job Requirements] •Strong experience in backend development (Python(preferred), Node.js, or other relevant languages). •Proficiency in working with databases (SQL(preferred) or NoSQL). •Proficiency in creating and maintaining databases will be considered a plus. •Basic knowledge of frontend technologies (HTML, CSS, JavaScript) to support system integration. •Familiarity with financial markets and handling large datasets, also machine learning. •Experience in market data processing and familiarity with financial instruments is a plus. •Proficiency in written and spoken English and Chinese •Can work under pressure on ad-hoc projects *This position requires on-site test only. Please ensure you are able to attend the test in person. (僅有實體測驗,且此職位非遠距,請確保您能配合再投遞履歷) *Please provide an English resume.*
應徵
10/15
天下雜誌股份有限公司雜誌/期刊出版業
台北市中山區2年以上大學以上
【職責】 1. 參與設計與維護數據基礎設施和數據管線 (Data pipeline - ETL/ELT) ,以支援關鍵業務應用 (如MarTech、AdTech、CDP、CRM、推薦系統、標籤等) 與數據應用需求 2. 協助進行數據創新應用和架構研究,特別是支援 AI/ML 專案的數據準備與供應,並參與新興數據技術的研究與導入 (如 Gen AI 相關數據集技術或 Data Lakehouse) 3. 協助執行數據品質、治理與安全相關任務,確保數據的準確性、完整性與合規性 4. 具備獨立執行數據工程任務的能力,負責從概念發想到最終部署的完整流程。同時,與團隊成員緊密協作,共同完成專案,以確保最終成果符合部門的發展目標與方向。 5. 與數據分析師、專案經理、業務團隊及 IT 部門協作, 理解業務需求並協助轉化為技術性數據解決方案 6. 積極學習新技術,並能與團隊成員有效協作、分享知識 【工作內容】 1. 開發、維護和優化複雜的批次和即時數據管線,從多個異質數據源 (包括但不限於 MarTech、AdTech、CDP、CRM、Events log等) 擷取、轉換與載入數據 2. 參與建構與維護基於雲端的數據儲存與處理架構,如數據湖 (Data Lake) 或數據湖倉 (Data Lakehouse),確保系統穩定運行 3. 建構與維護 AI/ML 應用所需的數據集,包括特徵工程數據管線,並研究與實現為 LLM 應用準備數據的機制 (如 MCP 或 RAG 相關數據流程) 4. 參與設計與開發數據服務層 (Data Serving),提供數據 API 或串流數據供下游應用使用 5. 優化現有數據系統和查詢效能,進行效能調校,降低數據處理延遲,提升系統效率 6. 操作與維護自動化的數據流程管理機制,使用 Airflow 等工具進行任務排程與監控 7. 協助建立與維護自動化測試、監控和警報機制,以確保數據平台穩定運行 8. 執行數據治理框架下的具體任務,例如追蹤數據血緣 (Data Lineage),並確保數據處理符合相關法規 9 . 持續學習新興數據技術和行業趨勢 (如 Data Lakehouse, Gen AI 相關技術),並與團隊分享 【技能要求】 1. 具備數據工程相關工作經驗 2 年以上 2. 熟悉 Python 和 SQL,具備良好的程式撰寫能力與數據庫操作能力 3. 具備 Data Orchestration 的實務經驗,熟悉 Airflow 的工作流開發與維護 4. 熟悉至少一個主流雲端平台 (GCP 優先考慮),並對其數據相關服務具備使用經驗 (例如:GCP 的 BigQuery, Cloud Storage, Dataflow, Pub/Sub, Cloud Run, Vertex AI, Composer等) 5. 熟悉數據倉儲 (Data Lakehouse) 或數據湖 (Data Lake) 的概念,並具備協助建構或維護的經驗 6. 熟悉 Git 版本控制系統和 CI/CD 流程 7. 理解數據安全原則、存取控制、數據加密和數據治理概念 【部門介紹】 天下雜誌集團的數據工程師,是數位創新團隊不可或缺的數據架構基石,肩負著以數據賦能的核心使命。此職位的核心職責在於設計、建構並維護高效、穩健的數據基礎設施與數據管線,透過確保數據品質與可用性,以支援推薦系統、CRM、AI/ML 等關鍵應用。我們將與數據工程師攜手,共同推動內容及商務營運目標,將數據驅動的文化深植於日常工作中。 集團旗下擁有《天下》、《康健》、《天下學習》、《親子天下》等知名品牌,涵蓋財經管理、健康生活、工作職場與親子教育等領域。對數據團隊而言,我們就像多家公司合體運作,每個品牌都有獨特的商業模式與需求。從電商、內容訂閱到線上教育的數據應用,你都將有機會深入參與,發揮專業價值,探索多元場景。
應徵
10/20
鴻宇科技服務有限公司電腦軟體服務業
台北市內湖區2年以上高中以上
- 可接受駐點性質工作:需配合派駐至客戶端,參與並執行軟體專案開發任務。 - 工作態度與團隊合作:具備主動學習精神,重視紀律與責任感,樂於與團隊協作,共同達成專案目標。 - 專業背景與經驗: 具備至少兩年以上程式設計師(PG)、系統開發人員(SD)、系統分析師(SA)、專案經理(PM)、資訊管理人員(MIS)、軟體測試人員(QA)或技術客服(TS)等相關職務。具備專案執行能力,擁有相關專業證照者尤佳。 - 工作地點:台北市內湖為面試地點,實際派駐地點依客戶端需求而定。
應徵
10/21
海科科技有限公司其它軟體及網路相關業
台北市中山區3年以上大學以上
【Who we are ?】 Hytech是一個年輕、充滿活力的團隊,專注於推動金融科技行業的企業技術轉型,是全球領先的管理技術諮詢公司。創新思維和扁平化的管理,讓團隊成員以公開、透明的方式自在工作,也為全球客戶提供卓越的商業價值服務。 【Why join the team? 】 Hytech 團隊在共事的過程中核心技術會與時俱進,即時討論,並且有良好的溝通管道,扁平化管理,任何問題或意見都可以討論及合作解決。密切的與跨國同事團隊交流。 【About the role - Data Analyst】 As a Data Analyst at Hytech, you will analyze user behavior on financial trading platforms, focusing on app users and their growth journey, including conversion and retention metrics. You will leverage insights from user behavior data to optimize engagement channels—such as push notifications—driving the conversion of registered users into funded, active traders. (作為 Hytech 的數據分析師,您將負責分析金融交易平台上的用戶行為,專注於應用程式用戶增長過程,包括轉化與留存指標。您將運用數據洞察優化平台渠道,例如透過推播通知,提升用戶參與度,並促使一般用戶轉化為活躍交易者) 【身為團隊的一份子您將負責】 1. Develop, implement, and maintain leading analytical systems to solve complex problems and build simplified frameworks. (開發、實施並維護領先的分析系統,以解決複雜問題並建立簡化框架) 2. Analyze complex datasets to identify growth trends and opportunities. (分析複雜數據集,識別增長趨勢與商機) 3. Evaluate organizational methodologies and provide source-to-target mapping and information model specification documents for datasets. (評估組織方法,提供數據集的來源到目標映射,以及資訊模型規範文件) 4. Create best-practice reports based on data cleansing, analysis, and visualization. (基於數據清理、分析與可視化,建立最佳實踐報告) 5. Assess the efficiency, issues, and inaccuracies of internal systems, and establish and maintain standard processes for handling, processing, and cleansing data. (評估內部系統的效率、問題與不準確性,制定並維護數據處理、整理與清理的標準流程) 6. Collaborate directly with management and users to gather requirements, provide status updates, and build strong relationships. (直接與管理層及內部用戶合作,收集需求、提供狀態更新,並建立穩固的合作關係) 7. Work closely with project/product managers to understand and continuously address their analytical needs, including identifying key metrics and KPIs, and providing actionable insights to relevant decision-makers. (與專案/產品經理密切合作,了解並持續關注其分析需求,包括識別關鍵指標與 KPI,並向相關決策者提供可行的數據洞察) 8. Proactively analyze data to respond to key stakeholder questions or spontaneous inquiries, focusing on factors driving business performance and investigating and communicating areas for improving efficiency and productivity. (主動分析數據,回應關鍵問題或突發性需求,關注推動業務績效的因素,並調查與溝通可提升效率與生產力的改進方向) 9. Interpret and analyze data to create and maintain interactive visualizations, integrating various reporting components from multiple data sources. (解讀與分析數據,建立並維護互動式視覺化報表,整合來自多個數據來源的各類報告元件) 10. Define and implement data acquisition and integration logic, selecting appropriate methodologies and toolsets to ensure optimal scalability and performance within the defined technology stack. (定義並實施數據獲取與整合邏輯,選擇適當的方法與工具組合,確保解決方案在既定技術架構下達到最佳的可擴展性與效能)