104工作快找APP

面試通知不漏接

立即安裝APP

「【系統規劃部數據整合系統科】數據工程師」的相似工作

台新人壽保險股份有限公司_總公司
共500筆
10/29
台北市信義區3年以上大學
您是否渴望在金融科技的前沿,以前瞻數據、AI 與 LLM 技術驅動創新,塑造未來金融服務? 科技創研中心金融科技處,正積極尋找充滿熱忱、具備專業技能的 數據暨AI工程師 加入我們的創新團隊。您將負責金融科技領域的企業級數據平台、AI 平台及 LLM 相關基礎設施的開發、管理與優化,尤其著重於 Data Lakehouse 架構的實踐與 Denodo 虛擬化技術的應用,並參與大型語言模型 (LLM) 在金融領域的應用開發與部署,確保數據的安全性、高效傳輸與穩定運作,為金融 AI/LLM 應用與策略決策提供堅實的技術後盾,助力提升金融服務的競爭力與創新能力。如果您對數據工程、AI/LLM 工程在金融領域的應用充滿熱情,並熟悉 Data Lakehouse、Denodo 等先進技術,且對 LLM 的發展與應用有深入了解,渴望在充滿挑戰與成長的環境中發揮所長,誠摯邀請您加入我們! 【工作職責】 •Data Lakehouse 平台開發與管理: 負責金融科技領域基於 Data Lakehouse 架構的數據平台設計、開發、部署、維護與優化,整合結構化與非結構化數據,提供彈性高效的數據存儲與分析能力,以支持 LLM 相關應用所需的大規模數據。 •Denodo 虛擬化平台管理與開發實作: 負責 Denodo 虛擬化平台的設計與管理,實現多個異質數據源的邏輯整合,提供統一的數據存取介面,簡化數據獲取流程,以支援 LLM 應用所需的多樣化數據來源。 •數據管道開發: 設計並實作高效能的 ETL/ELT 流程,處理多元金融數據來源 (例如:交易數據、市場數據、客戶數據、文本數據等),確保數據的準確性、完整性與即時性,並能有效整合至 Data Lakehouse 或透過 Denodo 進行虛擬化,以供各單位進行分析與應用。 •數據整合與清理: 負責數據的整合、轉換、清理、標準化與特徵工程,提高數據品質,為後續的數據分析、風險模型、 AI 模型與 LLM 的訓練及微調 奠定良好基礎,並考量 Data Lakehouse 的數據治理與管理。 •AI/LLM 平台管理: 負責企業 AI 平台、LLM 相關基礎設施 (例如:GPU 伺服器、模型儲存、API 部署等) 及 MLOps 流程的維護、管理與優化,確保企業內 AI/LLM 模型開發、訓練、微調與安全部署流程的順暢與高效,符合金融保險行業的合規要求,並能有效利用 Data Lakehouse 中的數據。 •LLM 應用開發與部署: 參與金融領域大型語言模型 (LLM) 的應用開發、測試與部署,例如:AI Agent、文本分析、資訊抽取、內容生成等。 •數據監控與效能調校: 開發與運營數據管道、數據庫、Data Lakehouse、AI 平台及 LLM 應用 的監測機制,進行效能分析與調校,確保系統的穩定運行與高效能,並符合系統穩定性的嚴格要求。 •跨部門協作: 與AI 科學家、IT 部門、Biz部門 (例如:通路、核保、商品等) 等緊密合作,深入了解企業業務需求與痛點,提供穩健且高效的數據與 AI/LLM 平台解決方案,並能利用 Data Lakehouse 和 Denodo 提供的能力。
應徵
11/03
台北市大安區1年以上大學以上
【About Us】 歡迎加入「國泰健康管理」!我們是一個充滿活力、追求創新、以數據和科技驅動健康管理變革的團隊!在這裡,你將與一群熱愛科技、關心健康、充滿創造力的夥伴並肩作戰,共同探索智能健康的無限可能。 我們相信「想要健康不能靠感覺」,而是基於精準數據的科學管理。 我們的使命是:整合數位、數據和 IT 技術,打造個人化的健康管理解決方案,讓人人都能擁有健康自信的人生,實踐『健康就在生活裡,解方就在數據裡』 【We Need You to …】 1.應用服務開發與維護 • 開發與維護數據應用服務(API),確保業務服務穩定運行。 • 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 • 建立與管理 CI/CD Pipeline,提升開發與部署效率。 • 持續監控服務效能,進行問題排查、升級與最佳化。 【About You】 • 熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 • 熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 • 了解容器化技術(Docker、Kubernetes)。 • 了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【Plus】 • 具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 • 具備 Terraform 或其他 IaC 工具經驗。 • 具備 DevOps / Cloud Engineer 相關工作經驗。 • 具備網路/資訊安全管理經驗。 • 具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/28
台北市中山區2年以上大學
1、資料倉儲需求訪談、架構規劃、開發與維運。 2、資料整合平台建置、開發與維運。 3、資料擷取及處理ETL開發及維運。 4、視覺化報表、互動分析式報表系統開發及維運。 5、主管臨時交辦事項。 6、不需銷售保險。
應徵
10/30
台北市大安區3年以上大學以上
1. 創造數據應用場景:與行銷團隊緊密合作,設計並導入數據技術的小工具/微服務,加速行銷效率實現數據價值最大化。 2. 數據可視化與商業洞察:運用視覺化工具建立互動式 Dashboard,清晰呈現分析結果,呈現分析結果並提供策略建議。 3. 模型開發與優化:建立機器學習與深度學習模型,涵蓋數據清洗、特徵工程、模型建置及調參,確保模型性能達到業務需求。 4. 技術創新與落地應用:持續學習並探索新數據技術,能將新技術成功應用於實際業務中,實現數據驅動。
應徵
10/29
台北市信義區3年以上大學
誠品致力於打造結合文化、閱讀與生活的全通路生態圈,透過數位創新提升顧客體驗,實現線上與線下服務的無縫整合。 資訊暨商業應用創新處(ICI)負責誠品各類資訊系統的管理與維運,並專注於全通路服務的技術開發、數據分析、雲端技術與 AI 應用,致力於打造創新高效的數位解決方案。我們的目標是實現數據驅動決策、自動化流程與跨通路無縫連結,推動企業數位轉型。如果您對資訊技術充滿熱情,誠心邀請您投遞此職務,加入 ICI,與我們一同解鎖潛力、編碼未來,穩健前行。 【工作內容】 1.Looker Core維護與開發: 建置、維護及優化Looker資料模型與報表,提供各部門精準的決策數據。 設計並開發LookML,實現複雜的數據分析需求。 負責Looker系統的權限控管與使用者管理。 2.BigQuery數據維護與優化: 使用Composer排程,自動化數據處理流程,確保數據品質與時效性。 利用Dataform開發、管理及維護數據管道,提升數據處理效率。 進行BigQuery資料結構優化,提升查詢效能。 3.AI工具導入與應用: 參與AI工具在BigQuery與Looker Core上的導入與應用,探索AI在數據分析領域的潛力。 透過AI輔助工具,提升工作效率,並開發創新的數據分析解決方案。
應徵
10/29
台北市中山區經歷不拘大學
1、資料倉儲需求訪談、開發與維運。 2、資料整合平台開發與維運。 3、資料擷取及處理ETL開發及維運。 4、視覺化報表、互動分析式報表系統開發及維運。 5、主管臨時交辦事項。 6、不需銷售保險。
應徵
11/03
台北市內湖區2年以上大學以上
【工作內容】 1. 資料管道建置與維運: 設計、開發和維護高效、可擴展的資料管道,確保資料從各個來源可靠地流向資料倉儲、數據湖和資料分析平台。 2. 資料模型與整合: 熟悉資料倉儲和數據湖概念,根據業務需求進行資料建模、資料處理和資料整合,確保資料的準確性和一致性。 3. ETL/ELT 開發與優化: 熟練使用資料處理框架(如 Informatica、Airflow 等)進行 ETL/ELT 流程的設計、開發和優化,提升資料處理效率。 4. 雲端資料工程: 具備 Azure 或 AWS 雲端平台實務經驗,能夠在雲端環境中部署和管理資料工程解決方案,運用雲端服務提升資料處理能力。 5. 異質資料處理: 能夠處理各種異質資料來源,進行資料清理、轉換和整合,解決資料格式和結構不一致的問題。 6. 跨團隊協作: 與資料分析師和業務團隊緊密合作,了解資料需求,提供資料支援,共同推動資料驅動的決策。 7. CI/CD 導入與實踐: 熟悉 CI/CD 流程,能夠設計和實施自動化部署和測試流程,確保資料管道的穩定性和可靠性,加速開發迭代。 8. 技術研究與創新: 持續研究和評估新的資料工程技術和工具,提出改進建議,並將其應用於實際工作中,保持技術領先。
應徵
07/24
台北市內湖區3年以上大學以上
【工作內容】 . 使用 Azure Databricks、Data Factory、Data Lake Gen2 等工具建立並維運 ETL 流程。 . 整合 ERP、CRM、IoT 等多來源資料,進行清洗與轉換並寫入 Azure Data Lake。 . 與資料科學團隊合作,提供模型所需的資料集與特徵工程支援(如 LightGBM、XGBoost)。 . 透過Power BI進行資料串接與報表資料結構設計,確保分析資料即時、準確。 . 撰寫技術文件,維護資料流程運作紀錄與治理機制。 【必要條件】 . 熟悉 Azure 平台操作(Databricks、Data Factory、Data Lake Gen2)。 . 熟悉 Python 語言,能獨立進行資料清洗與處理。 . 具 SQL 查詢能力與資料模型設計經驗。 . 有與資料科學或 BI 團隊協作經驗,熟悉 Power BI 或其他可視化工具資料串接。 【加分條件】 . 具備使用 LightGBM / XGBoost 經驗。 . 熟悉 Git、CI/CD、自動化流程或 Docker 等 DevOps 工具 . 有 Azure DP-203、DP-100 證照尤佳 . 英文讀寫能力佳,能閱讀技術文件與跨部門溝通
應徵
10/28
台北市信義區4年以上大學
<Job Description> 1. Performing various CFs runs using RAFM model. 2. Preparing NBV/NBM results/templates/slides under IFRS17 regime. 3. Perform scenario testing and analysis. 4. Producing RoRC/CIR and its commentary. 5. Working with Pricing, Risk Management, FMA and various channels whenever required. 6. Ad hoc tasks from CFO or regional office. <Characteristics of the job> - Being able to analyze and comment on the movement, provide insightful inputs for helping business steering. - Ambitious with strong analytical skills, good communication, teamwork orientation, involvement with non-Finance/Actuarial functions, and being able to perform under time pressure
應徵
10/29
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
10/30
叡揚資訊股份有限公司電腦軟體服務業
台北市中山區經歷不拘專科以上
我們正在尋找一位對資料有熱情,並具備資料流處理能力的資料工程師,協助我們打造高效、可擴展的資料處理與資料治理平台。主要工作內容包括: 1. 進行資料治理平台之品質檢核規則開發及維護 2. 進行資料品質規則推薦功能之發想及開發 3. 與後端、DevOps 等團隊合作,溝通協調資料處理面與前台介面整合之事項 4. 撰寫與維護技術文件與數據流程說明
應徵
10/29
台北市松山區2年以上專科以上
我們正在尋找一位熱情且富有才華的資料工程師,加入我們的團隊,協助解決廣告投遞的資料內容。在這裡有大量的數據供你發揮所長,將學過的知識及方法應用到實務的工作上。 我們希望你具備以下三大特質: 對資料工程領域有強烈興趣和熱情 。 重視團隊合作,具備良好的溝通能力 。 具有自我學習能力,能夠快速適應新技術。 職責: 資料取得 - 串接內外部廣告資料,必要時設計和構建資料倉儲系統。 資料清洗 - 進行資料格式的清理、轉換和處理,確保資料品質。 資料分析 - 運用統計和機器學習技術進行深入分析,提供有價值的洞察。 資料視覺化 - 若有需要,根據分析的數據提供統計圖表或報告。 程序開發 - 根據業務需求設計、開發和優化資料處理流程和模型。 系統維護:持續監控、維護和優化現有的資料系統和流程。 具備 2 年以上相關領域的開發經驗 ◆ 精通 Python 程式設計 ◆ 熟悉 Git 版本控制 ◆ 具備以下至少一種資料庫使用經驗:SQL、NoSQL、Redis、BigQuery ◆ 基本 Linux 操作概念、Shell script ◆ 學習新工具的能力、樂於學習的精神。 ◆ 重視程式可讀性、效能、安全性、可靠度。
應徵
10/17
台北市松山區1年以上大學
1.商品設計與開辦 2.投資型商品及標的維護 3.商品利潤分析及相關風險控管 4.精算分析及評估 5.專案支援
應徵
10/30
台北市大同區經歷不拘大學以上
【工作內容】 1.協助客戶安裝與部署 Pentaho 產品,包括 Pentaho Data Integration(PDI)、Pentaho Server 和 Pentaho Report Designer。 2.使用 ETL 工具(Pentaho PDI、Talend、Informatica、Microsoft SSIS 等)進行數據抽取、轉換與載入,確保資料正確性與完整性。 3.熟悉 Python 或 Java 等程式語言,能撰寫 ETL 腳本與自動化流程。 4.設計並維護 Data Model,建立高效、可擴充的數據架構。 5.開發與維護 Data Warehouse,確保數據一致性、完整性與可靠性。 6.熟悉 SQL 與常見資料庫(RDBMS / NoSQL),能分析並解決複雜的資料問題。 7.協助客戶安裝與配置 OpenMetadata,並整合至既有數據管理環境。 8.使用 OpenMetadata 平台建立與維護數據資產目錄,協助定義數據標準、數據政策與分類。 9.整合 OpenMetadata 與其他數據管理工具(ETL、資料庫、BI 工具等)。 10.撰寫專案與技術文件,包括安裝手冊、教育訓練教材與客戶需求文件。 11.參與客戶需求訪談,協助規劃與導入完整的數據平台解決方案。 12.其他主管交辦事項。 【必要條件】 1.具備 SQL 語法與資料結構基礎,理解 Data Flow 並能應用於實務案例。 2.熟悉 ETL 工具操作與數據處理邏輯。 3.至少熟悉一種程式語言(Python / Java),能進行自動化與流程開發。 4.理解 Data Model 設計理論並具備實務經驗。 5.良好的溝通能力,能與客戶合作並釐清需求。 6.具備獨立作業與問題解決能力,能快速學習新技術。 【加分條件】 熟悉 Pentaho PDI 或 OpenMetadata 平台。 具備 Data Warehouse、資料治理、資料湖泊等相關經驗。 有報表系統(如 Pentaho Report Designer、Power BI、Tableau)應用經驗。 瞭解雲端數據平台(如 AWS Redshift、GCP BigQuery、Snowflake)尤佳。 具備教育訓練、技術文件撰寫與客戶導入顧問經驗。 【發展方向】 短期(1–2 年):熟悉 Pentaho / OpenMetadata / DWH 平台導入,能獨立執行專案模組。 中期(2–4 年):成為能夠進行跨系統數據整合與數據治理規劃的顧問。 長期(5 年以上):成長為資料架構師 / 雲端數據平台專家,能帶領團隊規劃企業級數據平台。
應徵
10/29
台北市中正區5年以上大學以上
1.負責Oracle BIEE與Tableau分析報表與儀表板應用開發 2.Oracle ETL ODI 與Stored Procedure開發與管理監控 3.數據中台建置規劃與維運 4.經營管理數據分析架構規劃與專案管理 5.網頁資料蒐集爬蟲系統管理
應徵
11/01
台北市信義區6年以上專科
為確保您的申請能順利進入甄選流程,本職缺僅受理透過 安達人壽官網 投遞的履歷。請點擊以下連結完成申請:https://reurl.cc/qY6NRy (提醒您:若僅於 104 投遞履歷,將不會進入審核流程) ★使用小提醒: • 104 網頁版:請直接複製上方連結至瀏覽器,即可查看職務說明(JD)與投遞履歷。 • 104 App版:請滑至下方「聯絡方式」>「其他」欄位,複製該處連結至瀏覽器,即可查看職務說明(JD)與投遞履歷。 • 官網語言切換:您可於職缺頁面右上角選擇「繁體中文」,方便瀏覽。 ★進一步了解安達人壽 • [開箱影片] 走進我們的辦公室,認識工作環境、福利與文化 https://youtu.be/VEugiQZAcjc • [官方 Podcast] 探索我們如何打造支持成長與創新的職場 https://reurl.cc/ekd7XW
應徵
11/03
HUA AO_香港商創金科技有限公司其它軟體及網路相關業
台北市大同區2年以上專科
【工作內容】 1. 熟練掌握 SQL、Python,瞭解數據建模理論 2. 熟悉數據倉庫工具(如 Snowflake、Redshift、BigQuery、Databricks 等) 3. 使用 BI 可視化工具(如 Power BI、Tableau、Looker) 4. 有支付相關業務(如交易數據、支付成本、渠道分潤)分析經驗 5. 具 ETL 構建經驗,熟悉 Airflow、DBT 等數據編排工具經驗 【加分條件】 1. 有參與資料平台、BI 系統或數據倉儲專案的經驗,能獨立完成中小型任務 2. 熟悉 Git、CI/CD、Docker 等基礎 DevOps 工具者佳 3.參與團隊數據治理與標準制定經驗者尤佳 4. 具備良好的跨部門溝通與協作能力,能協助推動任務執行與進度管理
應徵
11/03
聯和科創股份有限公司電腦系統整合服務業
台北市中山區5年以上大學
此職務你會與其他管理、PM、工程師夥伴們一起優化產品系統,透過數據分析提供團隊數據進而提供策略性的建議,一同打造更好的操作介面。 1. 數據閱讀與分析能力。 2. 統整數據、用戶研究、市場分析後,根據目標打造符合市場需求的功能。 3. 與研發、設計、測試團隊緊密合作,制定符合成本效益的產品規格。 4. 訂定、追蹤專案時程、測試及後續上線後的成效追蹤和維運管理。 5. 質量管理:監控專案的質量標準,確保交付的成果符合組織的質量期望,推動和實施質量改進措施。 6. 專業發展:持續學習和更新專業知識。 7. 參與業內研討會和培訓,了解最新的專案管理趨勢。 8. 協作和培養領導力:促進協作和團隊合作,建立正面的工作環境。培養自身領導力,激勵團隊成員達成共同的目標。 9. 風險管理:識別、評估和管理專案可能面臨的風險,並制定應對策略以最大程度地減少對專案的影響。 10. 報告與評估:定期向管理層報告專案進度、問題和解決方案,並根據專案結束時的結果進行評估和學習。 【加分條件】 1. 熟悉Linux 指令、Windows cmd 指令、Apache、Nginx、和 SSH key
應徵
10/29
新北市中和區3年以上大學
【工作內容】 1. 針對企業內部與外部數據進行收集、整理、清洗與建模,確保數據品質與完整性。 2. 使用 Oracle SQL 進行資料查詢、分析與效率優化,並定期維護資料庫效能。 3. 使用 Python 進行資料處理、分析或自動化腳本開發,提升數據分析效率與整合度。 4. 依據業務需求,透過 Power BI 或 Tableau 製作動態報表與可視化儀表板,協助管理層與業務單位進行數據分析與決策。 5. 與跨部門團隊(如行銷、業務、產品)合作,理解需求並提出合適的數據解決方案。 6. 持續追蹤並研究 AI/ BI/ 大數據領域的新技術與趨勢,優化分析流程與工具。 【需求條件】 1. 資訊工程、統計、數學、商管或相關科系畢業(或具同等實務經驗)。 2. 熟悉 Oracle SQL,能熟練編寫 SQL 查詢、Stored Procedure、效能調校。 3. 具備 Power BI 或 Tableau 之實際開發與維運經驗,能獨立完成可視化報表設計與資料模型。 4. 具備良好的資料分析邏輯與商業思維,能清晰定義數據需求並解讀結果。 5. 良好的溝通協調能力,能與跨部門協作並釐清需求。 6. 對新技術保持好奇心,能主動學習並持續成長。 ※ 應徵時請附上相關作品(如 Power BI / Tableau 報表範例、GitHub 連結等)
應徵
10/30
台北市中山區2年以上專科以上
(本職務主要為技術工作而非單純的數據分析) 1. 商業智慧(BI)專案需求訪談、系統分析並製作系統需求規格書文件 2. 撰寫整合測試計畫書、測試案例、準備測試資料及測試 3. Metadata 中介層設計、Dashboard、Report設計 4. 系統導入上線及使用者教育訓練 工作技能 1. 有RMDB應用與設計 (如 MSSQL 與 Oracle)使用經驗,熟悉DB架構及基本設定 2. 熟悉SQL使用 3. 有BI工具如SAP BO/ Tableau/ MS PowerBI/ IBM Cognos 等使用經驗尤佳 4. 熟悉Windows及Linux基本操作 5. 熟悉並能使用網路工具如遠端桌面、putty、WinSCP等 6. 擅長工具Oracle SQL Developer 或 PL/SQL Developer或SQL server management studio等資料庫工具 7. 熟悉MS Office Excel 且熟悉公式使用 / Word
應徵