104工作快找APP

面試通知不漏接

立即安裝APP

「SWRD_Data Engineer 資料工程師」的相似工作

Gogoro Taiwan Limited_睿能創意股份有限公司
共500筆
10/07
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
10/09
群越廣告科技有限公司電腦軟體服務業
台北市松山區3年以上大學以上
我們尋找一位資料敏銳度高、擁有穩健工程實作力的資料工程師,加入我們的遊戲推薦系統開發團隊! 這個職位非常適合熟悉 資料處理流程、具備 API 設計與部署經驗、懂得 推薦模型訓練實務,並熱衷於將 AI 技術應用在真實產品場景中的人才。 你將參與我們打造高效能推薦系統的核心挑戰之一:處理高頻率、多次存取的推薦查詢問題(Multiple Access / Frequent Access Patterns)。在實務上,推薦系統需支援大量使用者在極短時間內反覆觸發推薦請求(如首頁刷新、排行榜滑動、活動推薦等),對於資料快取策略、查詢優化、線上/離線計算資源分配都提出極高要求。 我們期望你能透過設計 穩定高效的資料管線與特徵服務(Feature Store),結合良好的 API 封裝,確保推薦服務在多次存取場景下依然具備良好延遲控制與回應品質,讓系統在真實流量下穩健運作、持續為玩家提供個性化、即時的推薦體驗。 線上視訊筆試,請 share screen 解題: Python 操作 SQL 語法(PyMySQL) Flask API 封裝與邏輯設計 Numpy 矩陣操作與轉換 Multithreading 多執行緒概念與應用 PyTorch 假碼撰寫與推薦演算法說明 必備條件(務必具備): Python 資料處理能力強,熟悉生態系統:pandas、numpy、pyMysql、SQLAlchemy 熟練 SQL 查詢與資料倉儲操作,具備處理大型資料集的經驗 實際操作過 Flask API 設計與服務包裝 理解推薦系統與分類/排序模型的運作,具備實作經驗 熟悉模型部署工具,例如 Flask / FastAPI、joblib、ONNX、MLflow 等 具備跨部門溝通能力與資料產品思維,能獨立拆解與解決資料問題 加分條件(非必要,但會加分) 使用過雲端資料平台:BigQuery、Snowflake、Redshift 有推薦模型訓練與優化經驗:如 DNN-based 矩陣分解、Pairwise Ranking、Embedding 模型 熟悉 強化學習、Bandit Algorithm 在推薦系統中的應用 曾設計過 AB test 並執行評估分析 實作過 Feature Store、推薦 pipeline 框架設計經驗
應徵
10/07
株式会社シエス情報電腦系統整合服務業
日本3年以上大學以上
招募台灣地區工程師 公司提供簽證的更新以及新規簽證。 可提供高度人才簽證(5年)額外加20分,提早取得永久居留權。 執行案件為一般商業、金融案件居多,會派至委託公司駐點或在宅。 【工作內容】 1.負責軟體之分析、設計以及程式撰寫。 2.規劃執行軟體架構及模組之設計,並控管軟體設計進度。 3.進行軟體之測試與修改。 4.規劃、執行與維護量產的產品。 5.協助研發軟體新技術與新工具。 【工作職缺】Python軟體開發工程師(工作經驗三年以上) 【徵求條件】JAVA,NET,C#C,C++,Python,salesforce,SAP,PHP,IOS,Android,AWS,React.Ruby.C# (其中有一至兩項擅長的項目歡迎詢問) *無日文N1以上(可無檢定證書,但需聽說讀寫流利)請勿投遞履歷,國外遠端工作不可* 【工作地點】日本關東地區 【工作時間】9:00-18:00 中午休息1小時(依客戶現場為主) 【公司制度】1.提供雇用保險、健康保險、年金保險 2.完全週休2日、GW/夏休/年末年始連休 3.工作產生的交通費實報實銷 4.一年一度健康檢查
應徵
10/03
烽泰科技有限公司其他金融及輔助業
台北市大同區3年以上大學
【工作內容】 作為集團數據策略的關鍵推手,您將有機會與集團IT團隊一同將財務數據從傳統架構轉型至現代化雲端平台 (AWS)。如果您渴望與頂尖數據專家、專案經理共同協作,並將資料工程、雲端、DataOps 技術應用於實際業務痛點,那麼這個職位正是您的最佳舞台! 我們的Sr. Finance DE將會與集團IT團隊合作,逐步將財務資料從地端VM搬遷至AWS雲端環境,並協助其他財務部同仁將日常業務報表、分析報表進行自動化。我們重視快速溝通與實際的專案交付! 在這裡,除了具競爭力的薪資與各種福利外,您還能與團隊內不同的夥伴們相互學習,追求技術成長。我們相信,透過透過實際的專案開發與新技術的學習與使用,才是讓團隊不斷進步與成長的動力! 【您需要做什麼?】 • 協助財務數據雲端轉型: 與集團 IT 團隊緊密協作,規劃並執行財務核心資料從地端 VM 遷移至 AWS 雲端環境的策略與實施。 • 建構數據自動化流程: 設計、開發並維護高效、穩定的財務數據 ETL/ELT pipeline,實現日常業務報表與分析報表的全面自動化。 • 數據架構優化與創新: 持續學習並導入先進的資料領域知識與技術(如 DataOps、FinOps 概念),優化現有數據架構,提升數據處理效率與品質。 • 跨部門協作與溝通: 深入理解財務部門需求,並能將複雜的技術概念清晰地傳達給非技術背景的同仁,共同推動專案進程。 • 數據專案開發與管理: 負責數據相關專案的設計、開發與維護,包含 Datalake 管理、資料收集、清洗、儲存等關鍵功能,確保數據的完整性、一致性與可用性。 • 文件撰寫與知識傳承: 撰寫清晰的開發文件 (Design Document, ERD, Diagram, User Manual),確保專案知識的有效傳承。 【我們期待您具備】 • 精通 SQL,具備大規模集中/分散式資料庫的 CRUD 操作、效能優化及資料清洗 (ETL/ELT) 實戰經驗。 • 豐富的 Python 資料工程開發經驗,熟悉並應用 pandas, numpy, pyspark 等核心套件。 • 具備 AWS 雲端平台 (例如 S3, EC2, Lambda, Glue, Redshift, Athena 等服務) 與 Databricks 的實務開發經驗。 • 具備 Data Pipeline (資料流) 的設計、搭建與優化能力,熟悉 Dagster 或 Airflow 等排程工具。 • 5 年以上資深資料工程師或相關經驗,並具備獨立主導專案的能力。 • 卓越的需求訪談與業務邏輯理解能力,能將複雜的技術概念清晰地傳達給非技術背景利害關係人。 • 具備良好的溝通協作能力,主動積極解決問題,並樂於分享知識。 【符合以下條件,將是您的優勢】 • 具備財務金融相關專業知識或在金融科技產業的資料工程經驗。 • 對 DataOps 或 FinOps 理念有深入理解與實踐經驗。 • 熟悉 Linux 操作與 Shell Script。 • 具備 資料視覺化工具 (Tableau、PowerBI) 實務經驗。
應徵
10/03
葳誠科技有限公司電腦系統整合服務業
台中市西屯區3年以上大學以上
固定駐點在外商客戶端(不會變更) 目前急需的是地端環境(SQL SSIS)需要能馬上上手 主要職責: 產業Knowhow 可以訓練,職務需求技能需熟練,能依照指示獨立作業 · 與(客戶端用戶)合作,定義滿足業務需求的要求,同時遵守全球標準和實踐 · 開發和設計視覺化製造智慧解決方案,包括在 Power BI 中開發儀表板、Microsoft Analysis Services 以支援 KPI 的製造營運和效能指標相關分析 · 開發自動化、整合、清理和維護製造資料來源品質和完整性的 ETL · 根據業務分析需求設計資料模型和資料架構。整合各種資料集並建立視覺化資料模型 · 與業務用戶進行資料驗證,編寫測試腳本並記錄缺陷 · 支援營運任務進行問題/請求管理和維護,制定並實施解決問題根本原因的解決方案 · 監控和解決與數據相關的問題,及時提供解決方案和支持,以最大限度地減少停機時間和中斷 所需技能: · 本科以上學歷(資訊科技、電腦科學、軟體工程、工業工程、應用數學、統計學、管理學) · 擁有 3 年使用 Microsoft SQL Server Business Intelligence Development Studio(SSIS、SSRS、SSAS、Power BI)和資料倉儲管理的經驗 · 具備 3 年商業智慧等級職位(分析、商業智慧或儀表板經驗)經驗 · 擁有在全天候製造環境中使用 IT 系統的經驗 · 具有推動和提供新功能以改善業務部門營運的經驗,這些營運符合既定標準和整體 IT 策略方向 · 強大的溝通、演示、組織和協調能力(包括在業務和技術需求之間「轉化」的能力) · 具有良好的持續確定優先順序和高效處理多任務的能力。 · 具有良好的團隊合作精神,人際溝通能力強,並能獨立工作 · 具備良好的中英文口說、寫作及演講能力,TOEIC 600分以上 所需技能: · 了解製造流程和製造執行系統 · 具備 Python 或 R 經驗者優先 · 微軟認證等業界認可的認證 · 商業智慧知識:SQL、Power BI、Tableau · 擁有實施滿足業務需求且技術完善的 IT 解決方案的良好記錄。 · 了解專案生命週期和應用程式生命週期方法。 · 能夠根據經驗和對專案策略意圖的理解,以批判性思考影響決策 Key Responsibilities: · Collaborate with business users to define requirements that meet business needs while adhering to global standards and practices · Develop and design visual Manufacturing Intelligence solutions, including developing dashboards in Power BI, Microsoft Analysis Services for KPI's supporting manufacturing operational and performance metrics related analytics · Develop ETL that automate, integrate, cleanse, and maintain manufacturing data source quality and integrity · Design data models and data architecture based on business analysis requirements. Integrate various datasets and build data models for visualization · Perform data validation with business user, write test scripts and record defects · Support operation tasks in conducting issue/request management and maintenance, develop and implement resolutions that address the root cause of problems · Monitor and troubleshot data-related issues, providing timely resolution and support to minimize downtime and disruption Required Skills: · Bachelor’s Degree above (Information Technology, Computer Science, Software Engineering, Industrial Engineering, Applied Mathematics, Statistic, Management) · 2 years of experience using Microsoft SQL server Business Intelligence Development Studio (SSIS, SSRS, SSAS, Power BI) and data warehouse management · 2 years of Business Intelligence level role in Analytics, Business Intelligence or Dashboards experience · Experience working with IT systems in a 24/7 manufacturing environment · Experience in driving and delivering new capabilities to improve business unit operations that are in keeping with established standards and the overall IT strategic direction · Strong communication, presentation, organizational and facilitation skills (including ability to “translate” between business and technology needs) · Good ability to continuously prioritize and multitask efficiently. · Good team player with interpersonal skills and the ability to work independently · Good English & Chinese communication in speaking, writing and presentation, TOEIC 600 and above Desired Skills: · Knowledge of manufacturing process and manufacturing execution systems · Experience with Python, R is a plus · Industry-recognized certification such as Microsoft certification · Business Intelligence Knowledge: SQL, Power BI, Tableau · Proven track record of implementing IT solutions that meet business demands and are technically sound. · Knowledge of project life cycle and application life cycle methodologies. · Ability to influence decisions with critical thinking based upon experience and understanding of the strategic intent of the project
應徵
10/03
台北市大安區3年以上大學以上
【About Us】 歡迎加入「國泰健康管理」!我們是一個充滿活力、追求創新、以數據和科技驅動健康管理變革的團隊!在這裡,你將與一群熱愛科技、關心健康、充滿創造力的夥伴並肩作戰,共同探索智能健康的無限可能。 我們相信「想要健康不能靠感覺」,而是基於精準數據的科學管理。 我們的使命是:整合數位、數據和 IT 技術,打造個人化的健康管理解決方案,讓人人都能擁有健康自信的人生,實踐『健康就在生活裡,解方就在數據裡』 【We Need You to …】 1.應用服務開發與維護 • 開發與維護數據應用服務(API),確保業務服務穩定運行。 • 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 • 建立與管理 CI/CD Pipeline,提升開發與部署效率。 • 持續監控服務效能,進行問題排查、升級與最佳化。 【About You】 • 熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 • 熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 • 了解容器化技術(Docker、Kubernetes)。 • 了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【Plus】 • 具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 • 具備 Terraform 或其他 IaC 工具經驗。 • 具備 DevOps / Cloud Engineer 相關工作經驗。 • 具備網路/資訊安全管理經驗。 • 具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
09/17
創代科技股份有限公司工商顧問服務業
台北市中山區1年以上碩士以上
我們正在尋找一位 Mid-Level 的數據工程師 (Data Engineer),主要負責 資料庫建置、ETL 流程設計與開發、數據處理與分析。目前創代科技曾執行過的專案包含了 大型語言模型產品開發(涵蓋雲端、地端、雲地混合方案)、深度學習開發(產品洞察與行為預測、時間序列預測、路線最佳化)、機器學習應用(各產業客戶的資料探勘與分析)、數據中台建置(含資料正規化、ETL 建置、導入 dbt、snowflake)!我們現在手上有各種類型的專案等著你來玩! 為什麼選擇創代科技? 創代科技是一家提供數據科學顧問服務的公司,業務涵蓋 零售、交通、物流、航運、電信、能源、犯罪、災防 等多元領域,並持續拓展至其他前沿產業。在這裡,你將接觸到多樣化的數據場景,包括乾淨度各異的資料與高度客製化的架構設計,讓你在解決各種挑戰中快速成長。 如果你熱愛學習新技術、探索創新解決方案,那麼在創代擔任數據工程師,將是你的最佳選擇。 ✅ 【職責內容】 1. 資料庫設計:熟悉資料庫概念,協助建置與維護資料倉儲、資料湖跟資料中臺。 2. ETL 或 ELT 流程開發:協助客戶建立基於地端或是雲端的資料流架構,整合多元數據來源(結構化與非結構化),構建高效數據處理系統,確保資料一致性與完整性。 3. 數據處理與協作:與資料科學家、資料分析師及後端工程師協作,處理 Data Pipeline 建置及數據收集、探勘與轉換。 4. 協助客戶工具導入:協助客戶翻新原有 Pipeline,並導入 dbt、snowflake等。 ✅ 【我們期待你具備】 1. 學歷背景:具備碩士學位, 資訊工程、資訊管理、資料科學、數學、統計、電機相關領域加分。 2. 專業技能: - 熟悉數據處理與分析,具備 ETL / ELT 流程開發與維護經驗。 - 熟悉 關聯式資料庫(如 PostgreSQL)及 圖形資料庫(如 Neo4j),擁有資料倉儲建置與操作經驗。 - 熟悉 Linux 環境,並具備版本控制工具(如 Git)使用經驗。 - 熟悉 容器化技術(如 Docker、Kubernetes),了解其生產環境運行與管理。 - 具備 Airflow 排程管理及模型部署經驗。 ✅ 【加分條件】 - 雲端服務:熟悉 GCP、AWS、Azure,具備跨雲架構整合及服務部署能力。 - 分散式系統:有 Hadoop、Spark 開發經驗者尤佳。 - 資料庫工具:具備 dbt 或是 snowflake 導入或是使用經驗。 - DevOps 經驗:具備 CI/CD 自動化部署實作經驗。 - BI 工具:熟悉 Tableau、Looker、Power BI。 - 演算法基礎:理解機器學習、深度學習背後邏輯或是應用經驗。 ✅ 【薪資待遇】 - 面議,保障年薪 14 個月。 ✅ 【公司福利】 - 彈性上下班時間、彈性居家上班福利。 - 每月享有職員不扣薪福利假、生日當月再多一天生日假。 - 不定期員工聚餐、午餐、下午茶、出遊團康活動等。 - 公司零食區、冰箱飲料、咖啡櫃永遠補給充足,讓每位新進夥伴都保證先胖五公斤! - 保障年終獎金 2 個月,其他績效獎金還可以靠自己爭取,亦提供結婚、生育等各項禮金。 - 電腦設備:公司提供工作機,亦可自備設備並領取每月電腦補助費。 - 每年提供教育訓練補助。 - 提供定期健康檢查補助。 - 每年定期進行績效考核,讓職員的升遷與薪資調整更有依據與保障。 ✅ 此職缺定位為 Mid-Level,尋找 1 - 3 年經驗的人選
應徵
09/25
果友科技有限公司電腦軟體服務業
台北市大安區1年以上學歷不拘
【工作內容】 1. 參與數據資料流程設計、開發與維護,打造高效且穩定的數據基礎架構 2. 使用 Python 進行數據處理,協助將數據應用服務部署與自動化 3. 串接各種 API,進行多元數據收集與整合,讓資料流動更順暢 4. 建立與維護數據倉儲、ETL 流程,確保資料品質與可追溯性 5. 持續優化數據處理效能,提升系統穩定性,與團隊一起解決各種技術挑戰 6. 需派駐至健康管理企業現場 【必備技能】 - Python:具備基礎程式設計能力,熟悉 pandas、numpy 等數據處理套件 - API 整合:能夠串接 REST API,處理 JSON 資料格式 【加分技能】 1. Docker 容器技術:熟悉容器化部署與管理 2. 熟悉雲端平台(AWS、GCP、Azure) 3. 具資訊工程、資訊管理、數學、統計相關背景尤佳 加入果友科技,和我們一起用數據創造影響力! 有興趣歡迎投遞履歷或直接聯繫我們,期待你的加入!
應徵
10/07
台北市內湖區1年以上大學以上
我們正在尋找對科技趨勢敏銳、樂於實驗的技術創新人才。你將成為旅遊科技部的技術推進引擎,結合 AI、前沿工具與跨領域思維,探索下一個改變旅遊產業的數位可能。 1. 介接並整合內外部資料來源,確保資料的高可用性與一致性 2. 設計、開發、測試與維護資料處理流程與管道(如 EDI、ETL) 3. 優化資料存儲架構與查詢效能,提升系統整體效能 4. 管理與優化資料管道排程,確保資料流穩定與準時更新 5. 執行資料治理機制,落實資料品質管理與監控 6. 與資料分析師與資料科學家協作,提供穩定且高品質的資料支持 7. 撰寫並維護相關技術文件,確保知識傳承與系統可維護性 8. 其他主管交辦事項 職務需求: 1. 關聯式資料庫: SQL Server 2. 非關聯式資料庫: MongoDB 3. 程式語言: C#、T-SQL 4. 工具: SSMS、SSIS、Power BI
應徵
10/08
天下雜誌股份有限公司雜誌/期刊出版業
台北市中山區2年以上大學以上
【職責】 1. 參與設計與維護數據基礎設施和數據管線 (Data pipeline - ETL/ELT) ,以支援關鍵業務應用 (如MarTech、AdTech、CDP、CRM、推薦系統、標籤等) 與數據應用需求 2. 協助進行數據創新應用和架構研究,特別是支援 AI/ML 專案的數據準備與供應,並參與新興數據技術的研究與導入 (如 Gen AI 相關數據集技術或 Data Lakehouse) 3. 協助執行數據品質、治理與安全相關任務,確保數據的準確性、完整性與合規性 4. 具備獨立執行數據工程任務的能力,負責從概念發想到最終部署的完整流程。同時,與團隊成員緊密協作,共同完成專案,以確保最終成果符合部門的發展目標與方向。 5. 與數據分析師、專案經理、業務團隊及 IT 部門協作, 理解業務需求並協助轉化為技術性數據解決方案 6. 積極學習新技術,並能與團隊成員有效協作、分享知識 【工作內容】 1. 開發、維護和優化複雜的批次和即時數據管線,從多個異質數據源 (包括但不限於 MarTech、AdTech、CDP、CRM、Events log等) 擷取、轉換與載入數據 2. 參與建構與維護基於雲端的數據儲存與處理架構,如數據湖 (Data Lake) 或數據湖倉 (Data Lakehouse),確保系統穩定運行 3. 建構與維護 AI/ML 應用所需的數據集,包括特徵工程數據管線,並研究與實現為 LLM 應用準備數據的機制 (如 MCP 或 RAG 相關數據流程) 4. 參與設計與開發數據服務層 (Data Serving),提供數據 API 或串流數據供下游應用使用 5. 優化現有數據系統和查詢效能,進行效能調校,降低數據處理延遲,提升系統效率 6. 操作與維護自動化的數據流程管理機制,使用 Airflow 等工具進行任務排程與監控 7. 協助建立與維護自動化測試、監控和警報機制,以確保數據平台穩定運行 8. 執行數據治理框架下的具體任務,例如追蹤數據血緣 (Data Lineage),並確保數據處理符合相關法規 9 . 持續學習新興數據技術和行業趨勢 (如 Data Lakehouse, Gen AI 相關技術),並與團隊分享 【技能要求】 1. 具備數據工程相關工作經驗 2 年以上 2. 熟悉 Python 和 SQL,具備良好的程式撰寫能力與數據庫操作能力 3. 具備 Data Orchestration 的實務經驗,熟悉 Airflow 的工作流開發與維護 4. 熟悉至少一個主流雲端平台 (GCP 優先考慮),並對其數據相關服務具備使用經驗 (例如:GCP 的 BigQuery, Cloud Storage, Dataflow, Pub/Sub, Cloud Run, Vertex AI, Composer等) 5. 熟悉數據倉儲 (Data Lakehouse) 或數據湖 (Data Lake) 的概念,並具備協助建構或維護的經驗 6. 熟悉 Git 版本控制系統和 CI/CD 流程 7. 理解數據安全原則、存取控制、數據加密和數據治理概念 【部門介紹】 天下雜誌集團的數據工程師,是數位創新團隊不可或缺的數據架構基石,肩負著以數據賦能的核心使命。此職位的核心職責在於設計、建構並維護高效、穩健的數據基礎設施與數據管線,透過確保數據品質與可用性,以支援推薦系統、CRM、AI/ML 等關鍵應用。我們將與數據工程師攜手,共同推動內容及商務營運目標,將數據驅動的文化深植於日常工作中。 集團旗下擁有《天下》、《康健》、《天下學習》、《親子天下》等知名品牌,涵蓋財經管理、健康生活、工作職場與親子教育等領域。對數據團隊而言,我們就像多家公司合體運作,每個品牌都有獨特的商業模式與需求。從電商、內容訂閱到線上教育的數據應用,你都將有機會深入參與,發揮專業價值,探索多元場景。
應徵
10/09
台北市松山區1年以上高中
【工作內容】 與團隊協作,共同完成各客戶的資料流開發,同時協助團隊梳理與排除運作中的 data pipeline 產生的各種突發程式狀況,並完成記錄與建檔,您應可獨立開發系統串接、大資料清整。在工作過程中,您會與工程團隊、設計團隊、產品團隊溝通協作,完成規劃之項目與習慣自主進度掌控,例如資料串接、資料爬取、數據報告等。 【我們希望你】 一定要對開發工作具有熱情與自我學習不斷精進的渴望,遇到問題時,能獨立查找與判斷解決方案的可行性,若遇到無法解決的問題,也懂得如何清楚論途與提問,樂於與同仁們分享技術新知、提升自我能力,當挑戰尚不熟悉的工作內容時,充滿戰鬥力。 【職務需求】 熟悉 Python, SQL 熟悉 dbt, Airflow (Google Cloud Composer & MWAA) 熟悉 Star Schema / Snowflake Schema 設計 熟悉 Modern Data Stack 熟悉 PostgreSQL, MySQL, MongoDB 任一一種資料庫 【加分項】 熟悉 BigQuery or Redshift 熟悉 Glue or Dataflow 熟悉 Lambda or Cloud Run 【面試流程】 [實體] 一面
➀ 公司文化與價值觀討論
 ➁ 專案經歷與履歷討論
 ➂ 公司介紹(商業模式、團隊組成、工作內容)
 ➃ 公司相關問題 Q & A [線上] 二面 
 ➀ 線上題目,線上題目,用 HackMD 進行,內容包含 SQL、Pandas、ETL 基礎概念 ➁ 情境題(模擬完整商業需求)
應徵
10/09
台北市松山區1年以上高中
與售前團隊協作,共同完成客戶驗証所需的開發項目,您應可獨立開發系統串接、ETL/ELT 、dbt 核心資料模型建置。 在工作過程中,您會面對客戶、進行每日開發說明與進度匯整,需習慣自主進度掌控。 開發項目主要以資料串接、程式資料處理 (python / dbt)、雲資料處理 (aws glue / gcp workflow) 等為主。 【我們希望你】 一定要對開發工作具有熱情與自我學習不斷精進的渴望,遇到問題時,能獨立查找與判斷解決方案的可行性,若遇到無法解決的問題,也懂得如何清楚論途與提問,樂於與同仁們分享技術新知、提升自我能力,當挑戰尚不熟悉的工作內容時,充滿戰鬥力。 【職務需求】 熟悉 Python, SQL 熟悉 dbt, Airflow (Google Cloud Composer & MWAA) 熟悉 Star Schema / Snowflake Schema 設計 熟悉 Modern Data Stack 熟悉 PostgreSQL, MySQL, MongoDB 任一一種資料庫 熟悉 在雲端(AWS 為主,GCP/Azure 為輔)建置與部署資料流與資料庫。 【加分項】 熟悉 BigQuery or Redshift 熟悉 Glue or Dataflow 熟悉 Lambda or Cloud Run
應徵
10/06
台北市內湖區2年以上大學以上
【工作內容】 1. 資料管道建置與維運: 設計、開發和維護高效、可擴展的資料管道,確保資料從各個來源可靠地流向資料倉儲、數據湖和資料分析平台。 2. 資料模型與整合: 熟悉資料倉儲和數據湖概念,根據業務需求進行資料建模、資料處理和資料整合,確保資料的準確性和一致性。 3. ETL/ELT 開發與優化: 熟練使用資料處理框架(如 Informatica、Airflow 等)進行 ETL/ELT 流程的設計、開發和優化,提升資料處理效率。 4. 雲端資料工程: 具備 Azure 或 AWS 雲端平台實務經驗,能夠在雲端環境中部署和管理資料工程解決方案,運用雲端服務提升資料處理能力。 5. 異質資料處理: 能夠處理各種異質資料來源,進行資料清理、轉換和整合,解決資料格式和結構不一致的問題。 6. 跨團隊協作: 與資料分析師和業務團隊緊密合作,了解資料需求,提供資料支援,共同推動資料驅動的決策。 7. CI/CD 導入與實踐: 熟悉 CI/CD 流程,能夠設計和實施自動化部署和測試流程,確保資料管道的穩定性和可靠性,加速開發迭代。 8. 技術研究與創新: 持續研究和評估新的資料工程技術和工具,提出改進建議,並將其應用於實際工作中,保持技術領先。
應徵
10/07
台北市內湖區1年以上大學
工作內容: • Designing and maintaining cloud-based data warehouse, including data collection, modeling, and storage. • Maintaining batch and streaming pipelines, ensuring data quality. • Developing data APIs based on product requirements and deploying them to Kubernetes using Gitlab CI/CD. • Understanding user needs and handling data retrieval and dashboard support tasks. • Continuously learning, optimizing data architectures, and introducing new technologies.
10/07
台北市松山區經歷不拘大學以上
1.數據源擷取與整合(30%) -主導數據獲取策略,透過網路爬蟲(Web Scraping)、API介接或資料庫查詢等方式,自動化整合內外部多源數據。 -建立並維護數據清洗、驗證與特徵工程的流程,確保數據品質,為後續建模奠定穩固基礎。 2.預測模型建構(10%)、驗證(30%): -針對不同的商業問題,研究、選擇並應用最合適的統計學與機器學習模型 -進行模型參數調校,並透過交叉驗證等方法,客觀評估模型的準確性、穩健性與商業效益。 -量化並解釋模型的預測不確定性,為決策提供風險評估的科學依據。 3.數據視覺化(10%): -將複雜的數據洞察與模型結果,轉化為清晰易懂的互動式儀表板或視覺化報告。 4.知識文件撰寫(20%): -建立並維護詳盡的專案技術文件,包含數據字典、模型架構、程式碼註解與實驗記錄。 -將數據科學的思維與方法,透過分享會、報告等形式,在組織內進行知識擴散與轉移,提升數據素養。
應徵
10/08
台北市信義區3年以上大學
您是否渴望在金融科技的前沿,以前瞻數據、AI 與 LLM 技術驅動創新,塑造未來金融服務? 科技創研中心金融科技處,正積極尋找充滿熱忱、具備專業技能的 數據暨AI工程師 加入我們的創新團隊。您將負責金融科技領域的企業級數據平台、AI 平台及 LLM 相關基礎設施的開發、管理與優化,尤其著重於 Data Lakehouse 架構的實踐與 Denodo 虛擬化技術的應用,並參與大型語言模型 (LLM) 在金融領域的應用開發與部署,確保數據的安全性、高效傳輸與穩定運作,為金融 AI/LLM 應用與策略決策提供堅實的技術後盾,助力提升金融服務的競爭力與創新能力。如果您對數據工程、AI/LLM 工程在金融領域的應用充滿熱情,並熟悉 Data Lakehouse、Denodo 等先進技術,且對 LLM 的發展與應用有深入了解,渴望在充滿挑戰與成長的環境中發揮所長,誠摯邀請您加入我們! 【工作職責】 •Data Lakehouse 平台開發與管理: 負責金融科技領域基於 Data Lakehouse 架構的數據平台設計、開發、部署、維護與優化,整合結構化與非結構化數據,提供彈性高效的數據存儲與分析能力,以支持 LLM 相關應用所需的大規模數據。 •Denodo 虛擬化平台管理與開發實作: 負責 Denodo 虛擬化平台的設計與管理,實現多個異質數據源的邏輯整合,提供統一的數據存取介面,簡化數據獲取流程,以支援 LLM 應用所需的多樣化數據來源。 •數據管道開發: 設計並實作高效能的 ETL/ELT 流程,處理多元金融數據來源 (例如:交易數據、市場數據、客戶數據、文本數據等),確保數據的準確性、完整性與即時性,並能有效整合至 Data Lakehouse 或透過 Denodo 進行虛擬化,以供各單位進行分析與應用。 •數據整合與清理: 負責數據的整合、轉換、清理、標準化與特徵工程,提高數據品質,為後續的數據分析、風險模型、 AI 模型與 LLM 的訓練及微調 奠定良好基礎,並考量 Data Lakehouse 的數據治理與管理。 •AI/LLM 平台管理: 負責企業 AI 平台、LLM 相關基礎設施 (例如:GPU 伺服器、模型儲存、API 部署等) 及 MLOps 流程的維護、管理與優化,確保企業內 AI/LLM 模型開發、訓練、微調與安全部署流程的順暢與高效,符合金融保險行業的合規要求,並能有效利用 Data Lakehouse 中的數據。 •LLM 應用開發與部署: 參與金融領域大型語言模型 (LLM) 的應用開發、測試與部署,例如:AI Agent、文本分析、資訊抽取、內容生成等。 •數據監控與效能調校: 開發與運營數據管道、數據庫、Data Lakehouse、AI 平台及 LLM 應用 的監測機制,進行效能分析與調校,確保系統的穩定運行與高效能,並符合系統穩定性的嚴格要求。 •跨部門協作: 與AI 科學家、IT 部門、Biz部門 (例如:通路、核保、商品等) 等緊密合作,深入了解企業業務需求與痛點,提供穩健且高效的數據與 AI/LLM 平台解決方案,並能利用 Data Lakehouse 和 Denodo 提供的能力。
應徵
10/07
台北市中山區2年以上大學
【工作內容】 1. 將概念性想法設計規劃為可執行的解決方案 2. 大數據專案的規劃,數據接入、清洗、建模與可視化的設計 3. 與機器學習工程師、雲端架構師、PM密切合作共同合作完成專案,供客戶高質量的雲端數據相關服務 4. 負責協助客戶整合、設計、部署大數據處理流程與平臺 5. 探索雲端服務組合的可能性,創造全新的可能性 【必備技能/條件】 1. 3 年以上資料排程、處理、清洗、分析的實務經驗 2. 2 年以上資料處理常用的 Open Source 工具的實務經驗,eg. Spark, Airflow, hadoop 3. 2 年以上Python / Java 程式語言開發相關工作經驗 4. 擅長解決問題、除錯、故障排除,提出問題解決方案 【加分條件】 1. 具備BigQueryRDBMSNoSQL使用經驗 2. 具備爬蟲相關經驗 3. 熟悉 Restful API
應徵
10/06
台北市大安區3年以上專科以上
永慶房產集團為房仲產業龍頭,用科技創新引領創新變革,歡迎IT領域的優秀夥伴加入! 工作內容如下: 1.規劃集團資料流程,達成資料整合綜效。 2.建置企業數據中台,管控集團資料倉儲品質與正確性。 3.與資料分析師協同合作,進行資料分析前處理,提供技術支援,共同完成任務。 4.提供各項營運策略數據支援。 必備技能: 1.熟悉 SQL 語法,有 RDBMS 和 NoSQL 經驗 2.具備資料視覺化能力,熟悉一種以上視覺化工具。 其他加分:持續自我學習挑戰。 相關報導: 《購售屋服務再進化,永慶布局房產科技4.0》https://technews.tw/2022/07/04/yungching-real-estate-4-hiring/#more-926008 《房產科技發展潛力無窮,資訊人才紛紛轉戰房仲業》https://www.cheers.com.tw/article/article.action?id=5100997 永慶數位人才招募,更多職缺連結:https://mps.yungching.com.tw/digital/
應徵
08/13
台北市南港區經歷不拘大學
工作內容: 開發與維護自動化數據處理流程(ex: Pipeline、Airflow) 建置並優化各式網路爬蟲(ex: Requests、Playwright、Scrapy ) 使用 Django 開發後端服務與 API,串接資料庫與前端系統 操作並優化資料庫(MariaDB、Redis),確保效能與穩定性 在 AWS(EC2、S3、RDS 等)環境中部署、監控與維運服務 協作AI應用模型 必備條件: 熟悉 Python,能獨立開發爬蟲、資料處理與 API 熟悉 Django 後端框架與 RESTful API 開發 熟悉 SQL(MariaDB)與快取系統(Redis) 具備自動化排程與數據管道開發經驗 具備 AWS 雲端平台使用經驗(EC2、S3、RDS 等) 良好的溝通能力與跨部門協作經驗 加分條件: 熟悉 Docker 具備前端基礎(HTML / CSS / JavaScript)可進行簡單資料視覺化 具備 機器學習或深度學習專案經驗
應徵
09/26
新北市汐止區1年以上大學
1. 內容開發與落地應用專案: 以數據驅動為核心的應用專案,包含專案架構規劃、進度追蹤、跨部門協作、落地驗證、進度追蹤回報、教育訓練、專案維運與持續優化等。 2. 內容經營分析與執行: 對數位內容進行全面、系統化的評估和管理,提升內容效益與影響力,並挖掘出更具價值的數據洞察。包含新聞議題分析、多媒體內容(如影音、Podcast)的深入數據分析與執行,並執行績效追蹤檢核、專案進度回報、跨部門協作(包括教育訓練和會議)等。 3. 創新型數據應用開發: 利用創新的數據分析技術(如Generative AI、Machine Learning)優化工作流程,促進創新應用開發,提升效率和數據價值,以實現數據驅動的決策與產品改進。 4. 主管交辦之新專案、行政事項或維運事項。 【必要條件】 1. 熟GCP環境,掌握 SQL、Python、AI等執行處理能力。 2. 熟Google Analytic 4、Looker studio、Excel(函數/樞紐/VBA)、Power Point。 【加分條件】 1. Google Data Analytics 認證。 2. Google Analytic 4 認證 (有效期內)。
應徵