104工作快找APP

面試通知不漏接

立即安裝APP

「【大數據 & Hybrid】資料工程師 Data Engineer」的相似工作

布魯斯人事顧問有限公司
共500筆
10/30
台北市大同區經歷不拘大學以上
【工作內容】 1.協助客戶安裝與部署 Pentaho 產品,包括 Pentaho Data Integration(PDI)、Pentaho Server 和 Pentaho Report Designer。 2.使用 ETL 工具(Pentaho PDI、Talend、Informatica、Microsoft SSIS 等)進行數據抽取、轉換與載入,確保資料正確性與完整性。 3.熟悉 Python 或 Java 等程式語言,能撰寫 ETL 腳本與自動化流程。 4.設計並維護 Data Model,建立高效、可擴充的數據架構。 5.開發與維護 Data Warehouse,確保數據一致性、完整性與可靠性。 6.熟悉 SQL 與常見資料庫(RDBMS / NoSQL),能分析並解決複雜的資料問題。 7.協助客戶安裝與配置 OpenMetadata,並整合至既有數據管理環境。 8.使用 OpenMetadata 平台建立與維護數據資產目錄,協助定義數據標準、數據政策與分類。 9.整合 OpenMetadata 與其他數據管理工具(ETL、資料庫、BI 工具等)。 10.撰寫專案與技術文件,包括安裝手冊、教育訓練教材與客戶需求文件。 11.參與客戶需求訪談,協助規劃與導入完整的數據平台解決方案。 12.其他主管交辦事項。 【必要條件】 1.具備 SQL 語法與資料結構基礎,理解 Data Flow 並能應用於實務案例。 2.熟悉 ETL 工具操作與數據處理邏輯。 3.至少熟悉一種程式語言(Python / Java),能進行自動化與流程開發。 4.理解 Data Model 設計理論並具備實務經驗。 5.良好的溝通能力,能與客戶合作並釐清需求。 6.具備獨立作業與問題解決能力,能快速學習新技術。 【加分條件】 熟悉 Pentaho PDI 或 OpenMetadata 平台。 具備 Data Warehouse、資料治理、資料湖泊等相關經驗。 有報表系統(如 Pentaho Report Designer、Power BI、Tableau)應用經驗。 瞭解雲端數據平台(如 AWS Redshift、GCP BigQuery、Snowflake)尤佳。 具備教育訓練、技術文件撰寫與客戶導入顧問經驗。 【發展方向】 短期(1–2 年):熟悉 Pentaho / OpenMetadata / DWH 平台導入,能獨立執行專案模組。 中期(2–4 年):成為能夠進行跨系統數據整合與數據治理規劃的顧問。 長期(5 年以上):成長為資料架構師 / 雲端數據平台專家,能帶領團隊規劃企業級數據平台。
應徵
11/03
HUA AO_香港商創金科技有限公司其它軟體及網路相關業
台北市大同區2年以上專科
【工作內容】 1. 熟練掌握 SQL、Python,瞭解數據建模理論 2. 熟悉數據倉庫工具(如 Snowflake、Redshift、BigQuery、Databricks 等) 3. 使用 BI 可視化工具(如 Power BI、Tableau、Looker) 4. 有支付相關業務(如交易數據、支付成本、渠道分潤)分析經驗 5. 具 ETL 構建經驗,熟悉 Airflow、DBT 等數據編排工具經驗 【加分條件】 1. 有參與資料平台、BI 系統或數據倉儲專案的經驗,能獨立完成中小型任務 2. 熟悉 Git、CI/CD、Docker 等基礎 DevOps 工具者佳 3.參與團隊數據治理與標準制定經驗者尤佳 4. 具備良好的跨部門溝通與協作能力,能協助推動任務執行與進度管理
應徵
08/13
台北市南港區經歷不拘大學
工作內容: 開發與維護自動化數據處理流程(ex: Pipeline、Airflow) 建置並優化各式網路爬蟲(ex: Requests、Playwright、Scrapy ) 使用 Django 開發後端服務與 API,串接資料庫與前端系統 操作並優化資料庫(MariaDB、Redis),確保效能與穩定性 在 AWS(EC2、S3、RDS 等)環境中部署、監控與維運服務 協作AI應用模型 必備條件: 熟悉 Python,能獨立開發爬蟲、資料處理與 API 熟悉 Django 後端框架與 RESTful API 開發 熟悉 SQL(MariaDB)與快取系統(Redis) 具備自動化排程與數據管道開發經驗 具備 AWS 雲端平台使用經驗(EC2、S3、RDS 等) 良好的溝通能力與跨部門協作經驗 加分條件: 熟悉 Docker 具備前端基礎(HTML / CSS / JavaScript)可進行簡單資料視覺化 具備 機器學習或深度學習專案經驗
應徵
11/03
極風雲創股份有限公司網際網路相關業
台北市信義區3年以上專科
工作內容 極風雲創致力於拓展 AI 驅動的應用資安智能解決方案與服務,我們正在尋找具備創新思維與跨領域整合能力的資料工程師,一起打造具影響力的產品,推動企業數位轉型與智慧防禦。 【主要職責】 負責AI訓練前置資料整理與轉換,資安資料、資安產品日誌資料、法規資料等等,將相關資料進行數據分類與建庫,以及優化AI抽取的資料庫語法優化與效能提升。 【職務需求】 • 具備 高度企圖心、責任感與自我驅動力,勇於挑戰並樂於學習新事物。 • 優秀的 溝通與協調能力,能快速理解問題並提出具體解決方案。 • 具備 AI / 資料庫建置與管理,相關經驗,熟悉RAG向量資料庫建置,及MYSQL ELK 等等使用相關經驗 • 對 AI 應用、雲端平台或資安領域 有濃厚興趣或相關經驗。 • 需要與資安工程師、法務等等,將文件與資料進行向量資料庫建置與管理,以及與前後端工程師溝通討論串接API與測試RAG效果,並與AI訓練工程師,提供AI訓練品質與精準度。 我們提供 • 參與 AI + 資安 相關產品研發,影響未來數位防禦的機會。 • 彈性且具挑戰性的工作環境,鼓勵創新與跨域合作。 • 完整的職涯發展與學習資源,讓你在 AI 與雲端資安領域快速成長。 【 職位條件】 • 電腦科學、資訊工程、資訊管理或相關科系學士/碩士學位 • 具備 AI或資料庫相關產品開發相關背景者佳 • 具備問題解決、創新能力,推動團隊達成目標
應徵
10/29
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
11/03
台北市大安區1年以上大學以上
【About Us】 歡迎加入「國泰健康管理」!我們是一個充滿活力、追求創新、以數據和科技驅動健康管理變革的團隊!在這裡,你將與一群熱愛科技、關心健康、充滿創造力的夥伴並肩作戰,共同探索智能健康的無限可能。 我們相信「想要健康不能靠感覺」,而是基於精準數據的科學管理。 我們的使命是:整合數位、數據和 IT 技術,打造個人化的健康管理解決方案,讓人人都能擁有健康自信的人生,實踐『健康就在生活裡,解方就在數據裡』 【We Need You to …】 1.應用服務開發與維護 • 開發與維護數據應用服務(API),確保業務服務穩定運行。 • 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 • 建立與管理 CI/CD Pipeline,提升開發與部署效率。 • 持續監控服務效能,進行問題排查、升級與最佳化。 【About You】 • 熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 • 熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 • 了解容器化技術(Docker、Kubernetes)。 • 了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【Plus】 • 具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 • 具備 Terraform 或其他 IaC 工具經驗。 • 具備 DevOps / Cloud Engineer 相關工作經驗。 • 具備網路/資訊安全管理經驗。 • 具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
11/04
台北市內湖區1年以上大學
工作內容: • Designing and maintaining cloud-based data warehouse, including data collection, modeling, and storage. • Maintaining batch and streaming pipelines, ensuring data quality. • Developing data APIs based on product requirements and deploying them to Kubernetes using Gitlab CI/CD. • Understanding user needs and handling data retrieval and dashboard support tasks. • Continuously learning, optimizing data architectures, and introducing new technologies.
10/28
咖米股份有限公司其它軟體及網路相關業
台北市中正區5年以上專科以上
【擴編】資深數據分析師|Senior Data Analyst Kamee咖米是結合科技與健康的品牌。 希望藉由數據替每個人打造專屬於自己的個人化健康方案,帶給世界更美好的生活! 主要提供服務包含【客製化保健品訂閱服務】及【智能健康評估系統】 ★ 咖米獲選經濟部FINDIT早期投資系列活動企業 ★ Google台灣區Project Hatcher的合作企業 ★ 鴻海集團旗下康聯生醫的戰略合作夥伴 ★ 成為北美矽谷加速器暨創投基金SparkLabs Taiwan Portfolio 我們創造開放、共享的企業文化,重視成員身心內外成長, 相信只有擁有共同目標和願景的團隊,才能一起共創未來! ▼ 咖米官網: https://kameelife.com ▼ 臺北國際會議中心產品發布會: https://youtube.com/watch?v=Qw_dZzjFFEE&feature=share7 ▼ EE TIMES國際媒體專訪: https://www.linkedin.com/feed/update/urn:li:activity:7080444553702342656 —— 我們需要 —— ■【擴編】資深數據分析師|Senior Data Analyst Kamee 正在從成長型新創邁向數據驅動決策階段, 我們需要一位能讓數據成為商業引擎的夥伴。 你將整合公司數據資料,建立自動化報表與成長模型, 讓數據不只是報表,而是驅動品牌成長的動力。 —— 你的目標 —— ■整合行銷、營運、CRM、訂閱與網站數據資料,打造能驅動成長的數據基礎。 ■分析行銷、營運與顧客行為,洞察 CAC、ROAS、LTV、留存等核心指標背後的成長關鍵點。 ■與行銷、產品、營運等部門合作,發掘成長機會並優化用戶體驗。 ■建立資料驅動文化,推動公司長期決策與預測模型的發展。 —— 期待的人 —— ■對數據有好奇心,會思考「數據想告訴我什麼真相」。 ■動手能力強、學得快,能自行接資料、建報表、跑分析,樂於優化流程。 ■具備商業敏銳度,能從數字理解營運邏輯與用戶行為。 ■擅長跨部門合作,能用數據推動行銷、工程、客服、財務更有效率地前進。 ■結果導向,重視實際成長與影響力,而非僅追求報表好看。 我們在尋找能從數據中發掘商業洞察,並以此幫助團隊推動決策的夥伴,不一定要有完整系統背景,只要具備強邏輯與實作力。 —— 經歷技能 —— 【經歷】 ■5年以上數據分析或相關經驗。 ■熟悉行銷或電商數據分析(懂 CAC、LTV、ROAS、留存率等概念)。 ■具跨部門溝通經驗,能用簡單語言說清複雜數據。 【技能】 ■熟悉 SQL、Python(或 R),能獨立清理與分析資料。 ■熟悉 GA4、Meta Ads、Google Ads、CRM 等數據串接與分析。 ■能操作 BI 工具(如 Looker Studio、Power BI、Tableau)建立互動式報表。 【加分條件】 ■熟悉 BigQuery、Redshift、Snowflake 或 API 串接整合 ■具備自動化報表或儀表板建置經驗(如 GA4、Looker Studio、Power BI) ■能運用 AI 工具(如 GPT、Gemini)輔助資料分析與模型優化 —— 主要職責 —— ■優化公司既有數據架構與自動化報表系統(GA4、CRM、投放平台、ERP、內部數據儀表板)。 ■協助行銷與產品團隊發現成長機會,分析行銷投放、顧客行為與營運成效,找出轉換與留存的驅動因素。 ■設計 CAC、ROAS、LTV、留存率等 KPI 模型與可追蹤機制。 ■跨部門協作,提供行銷與營運團隊所需的數據洞察,協助制定成長策略。 ■持續優化資料整合流程,建立公司未來資料科學基礎。 Report to Marketing head 在 Kamee,你的分析結果不只是一份報表, 而是會直接影響產品、行銷與營運策略的「決策引擎」。 如果你想親手打造一家健康科技品牌的數據策略,我們非常期待你加入! —— 薪資待遇 —— $70,000~$110,000/月 /月起(視能力與經驗彈性調整) 此職缺不接受遠端工作
應徵
10/15
台北市南港區7年以上大學以上
【崗位職責】 1) 負責公司內部資料平臺的規劃、開發與持續優化,保障資料的完整性、可用性與安全性。 2) 基於 AWS 雲平臺及主流服務(如 EC2、S3、Redshift、Glue、Lambda、Athena 等)設計並實現高可用、高性能的資料處理與分析系統。 3. 設計並實施可擴展的後端服務,支援資料流程處理、ETL 流程、API 介面與任務調度邏輯。 4. 搭建並維護資料視覺化與 BI 平臺(如 QuickSight等)。 5. 深度參與資料治理、資料建模、資料品質監控等體系建設。 6. 著重資料蒐集處理流程。 7. 與業務部門合作,提供穩定高效的資料分析支援。 【任職要求】 1) 資管/資工/電機相關大學以上學歷,10 年以上軟體發展經驗,其中 5 年以上後端系統開發經驗。 2) 精通至少一種主流程式設計語言(如 Python、Java、Go 等),並熟悉 SQL 與資料處理框架(如 Spark)。 3) 熟悉 AWS 雲平臺及主流服務(S3、Redshift、Glue、Lambda、Athena 等),具備實際專案執行經驗。 4) 有大型分散式系統或資料平臺建設經驗,具備良好的系統架構能力。 5) 熟悉資料建模、資料分層架構、資料治理理念。 6) 具備 BI 視覺化系統或報表平臺的搭建與運維經驗。 7) 較強的溝通能力、團隊協作精神和自我驅動能力。
應徵
11/04
特雷維科技有限公司電腦軟體服務業
台北市信義區2年以上大學以上
【職缺描述】 1、玩家行為分析: 深入分析玩家的遊戲數據,包括:存款、投注、遊戲時長、偏好遊戲類型、以及玩家的行為路徑,以洞察玩家生命週期價值(LTV)、留存率和流失原因。 2、數據監控與報告: 建立和維護日常數據儀表板,監控關鍵指標(KPIs),並定期為團隊提供數據報告與分析洞察。 3、A/B 測試與活動成效評估: 針對產品新功能或行銷活動,設計實驗方案並進行數據分析,評估其對業務指標的實際影響,並提供優化建議。 4、商業問題解決: 與跨部門團隊協作,將複雜的商業問題轉化為可執行的數據分析專案,並提出具體且可行的解決方案。 5、風險與異常行為分析: 協助風控團隊監控異常的玩家行為,識別潛在的作弊或欺詐活動,並建立相關的預警模型。 6、上述職責範疇將視面試後職級,決定職責覆蓋範圍。 【職務需求】 1、紮實的統計學基礎: 能夠進行假設檢定、迴歸分析和時間序列分析等。 2、優秀的商業洞察力: 能夠將數據結果與商業目標相結合,並提出可行的洞見。 3、良好的溝通與表達能力: 能夠清晰地向非技術人員解釋複雜的數據分析結果。 4、數據清洗能力:具備透過程式碼(如 SQL、Python)處理與清洗海量數據的能力。 5、代碼輔助能力:熟悉至少一種數據分析程式語言(如 Python 、R),具備使用 Pandas 等函式庫進行數據處理和建模的經驗。 6、視覺化呈現能力:熟悉數據視覺化工具,包含但不僅限於 Tableau 或 Power BI,能將數據轉化為清晰易懂的圖表與報告。 如有特別優秀者,薪資可以面議討論。 【加分項目】 1、有Slot / 漁機 / TableGame / BlockChain 等領域遊戲經驗佳。 2、有電子商務或金融科技等消費者行為相關產業的數據分析經驗佳。 3、具備機器學習模型開發與部署經驗,如預測玩家流失、分群等。 4、熟悉 Google Analytics、Mixpanel 等第三方數據分析工具。 【學/經歷背景】 1. 若該領域經歷超過五年以上,可不需具備下述學歷預期 2. 學歷至少具有其一或相關領域學士學位或以上學位「數據分析、統計學、數學、經濟學、資訊管理」
應徵
10/30
果友科技有限公司電腦軟體服務業
台北市大安區1年以上學歷不拘
我們正在尋找一位具備後端思維的數據工程師,與企業客戶的產品與分析團隊合作,打造高品質的數據供應與自動化環境。 你的主要任務是確保數據能穩定流動、被正確處理與自動化運作,成為支撐企業決策與AI應用的堅實基礎。 【工作內容】 1. 設計、開發與維護數據流程(Data Pipeline),打造穩定且高效的數據基礎架構 2. 使用 Python(pandas、numpy 等)進行數據清理、轉換與處理 3. 建立與維護 ETL 流程,確保資料品質、完整性與可追溯性 4. 建置與串接 API 與外部資料源,整合成統一的資料服務 5. 將數據處理流程自動化,並協助部署至雲端或容器化環境(如 Docker) 6. 需「派駐」至健康管理企業現場,協同客戶團隊實作與優化數據架構 【必備技能】 - Python:具備後端開發與數據處理能力,熟悉 pandas、numpy 等數據處理套件 - API 建置與整合:具備 FastAPI 建置與類似框架設計與串接經驗 - 資料流程思維:能理解資料從來源到應用的完整流向,具備基礎 ETL 概念 【加分技能】 1. 熟悉 Docker 或其他容器化技術,能協助部署與環境管理 2. 熟悉雲端平台(AWS、GCP、Azure等),具雲端自動化部署經驗 3. 擁有資訊工程、資訊管理、數學、統計相關背景者尤佳 【我們的願景】 加入果友科技,與我們一起用數據創造影響力。 這裡是讓你深入理解企業實際運作、與資料應用團隊並肩打造自動化數據服務的最佳舞台。 有興趣歡迎投遞履歷或直接聯繫我們,期待你的加入!
應徵
11/03
台北市內湖區1年以上大學以上
我們正在尋找對科技趨勢敏銳、樂於實驗的技術創新人才。你將成為旅遊科技部的技術推進引擎,結合 AI、前沿工具與跨領域思維,探索下一個改變旅遊產業的數位可能。 1. 介接並整合內外部資料來源,確保資料的高可用性與一致性 2. 設計、開發、測試與維護資料處理流程與管道(如 EDI、ETL) 3. 優化資料存儲架構與查詢效能,提升系統整體效能 4. 管理與優化資料管道排程,確保資料流穩定與準時更新 5. 執行資料治理機制,落實資料品質管理與監控 6. 與資料分析師與資料科學家協作,提供穩定且高品質的資料支持 7. 撰寫並維護相關技術文件,確保知識傳承與系統可維護性 8. 其他主管交辦事項 職務需求: 1. 關聯式資料庫: SQL Server 2. 非關聯式資料庫: MongoDB 3. 程式語言: C#、T-SQL 4. 工具: SSMS、SSIS、Power BI
應徵
10/31
台北市信義區2年以上專科以上
身為風控數據工程師,你將負責設計、建置與維運公司的數據基礎設施(Data Platform),確保數據在收集、處理與存取過程中的穩定性、正確性與高效性。 你將與風控團隊緊密合作,透過數據工程與自動化技術,將龐雜的數據轉化為具決策價值的洞察,支持公司在風險管理與策略決策上的持續成長。 【主要職責】 1. 數據管線開發與維運 - 設計、開發並維護 ETL/ELT 流程,整合內外部異質數據來源,確保數據高品質與穩定性 - 建立與維護數據模型(Data Modeling),確保架構具可擴展性並符合業務需求 - 建置監控與告警機制(Alerting & Monitoring),即時偵測異常並優化資料流程 2. 數據產品與分析支援 - 與風控、業務及數據分析團隊合作,理解需求並提供適用的數據解決方案 - 設計並開發自動化分析報表與 Dashboard,支援風控監測、產品分析及策略決策 3. 數據平台建置與管理 - 維運與優化數據平台(Data Platform),確保高可用性、可擴展性與安全性 - 管理與調校數據計算資源(如 Spark、Presto),提升效能與資源使用效率 - 建立數據治理(Data Governance)機制,確保資料品質、安全與合規 4. 系統監控與效能優化 - 監控並分析數據系統效能,持續進行架構優化與資源配置調整 - 優化查詢與處理效率,提升系統反應速度與可靠性 - 針對異常數據或流程問題,提供修復與長期優化方案
應徵
11/04
海科科技有限公司其它軟體及網路相關業
台北市中山區3年以上大學以上
【Who we are ?】 Hytech是一個年輕、充滿活力的團隊,專注於推動金融科技行業的企業技術轉型,是全球領先的管理技術諮詢公司。創新思維和扁平化的管理,讓團隊成員以公開、透明的方式自在工作,也為全球客戶提供卓越的商業價值服務。 【Why join the team? 】 Hytech 團隊在共事的過程中核心技術會與時俱進,即時討論,並且有良好的溝通管道,扁平化管理,任何問題或意見都可以討論及合作解決。密切的與跨國同事團隊交流。 【About the role - Data Analyst】 As a Data Analyst at Hytech, you will analyze user behavior on financial trading platforms, focusing on app users and their growth journey, including conversion and retention metrics. You will leverage insights from user behavior data to optimize engagement channels—such as push notifications—driving the conversion of registered users into funded, active traders. (作為 Hytech 的數據分析師,您將負責分析金融交易平台上的用戶行為,專注於應用程式用戶增長過程,包括轉化與留存指標。您將運用數據洞察優化平台渠道,例如透過推播通知,提升用戶參與度,並促使一般用戶轉化為活躍交易者) 【身為團隊的一份子您將負責】 1. Develop, implement, and maintain leading analytical systems to solve complex problems and build simplified frameworks. (開發、實施並維護領先的分析系統,以解決複雜問題並建立簡化框架) 2. Analyze complex datasets to identify growth trends and opportunities. (分析複雜數據集,識別增長趨勢與商機) 3. Evaluate organizational methodologies and provide source-to-target mapping and information model specification documents for datasets. (評估組織方法,提供數據集的來源到目標映射,以及資訊模型規範文件) 4. Create best-practice reports based on data cleansing, analysis, and visualization. (基於數據清理、分析與可視化,建立最佳實踐報告) 5. Assess the efficiency, issues, and inaccuracies of internal systems, and establish and maintain standard processes for handling, processing, and cleansing data. (評估內部系統的效率、問題與不準確性,制定並維護數據處理、整理與清理的標準流程) 6. Collaborate directly with management and users to gather requirements, provide status updates, and build strong relationships. (直接與管理層及內部用戶合作,收集需求、提供狀態更新,並建立穩固的合作關係) 7. Work closely with project/product managers to understand and continuously address their analytical needs, including identifying key metrics and KPIs, and providing actionable insights to relevant decision-makers. (與專案/產品經理密切合作,了解並持續關注其分析需求,包括識別關鍵指標與 KPI,並向相關決策者提供可行的數據洞察) 8. Proactively analyze data to respond to key stakeholder questions or spontaneous inquiries, focusing on factors driving business performance and investigating and communicating areas for improving efficiency and productivity. (主動分析數據,回應關鍵問題或突發性需求,關注推動業務績效的因素,並調查與溝通可提升效率與生產力的改進方向) 9. Interpret and analyze data to create and maintain interactive visualizations, integrating various reporting components from multiple data sources. (解讀與分析數據,建立並維護互動式視覺化報表,整合來自多個數據來源的各類報告元件) 10. Define and implement data acquisition and integration logic, selecting appropriate methodologies and toolsets to ensure optimal scalability and performance within the defined technology stack. (定義並實施數據獲取與整合邏輯,選擇適當的方法與工具組合,確保解決方案在既定技術架構下達到最佳的可擴展性與效能)
10/29
果友科技有限公司電腦軟體服務業
台北市大安區1年以上學歷不拘
我們正在尋找一位具備後端架構思維的「數據工程師」,能與企業客戶的數據分析、工程團隊協作,打造穩定且可擴展的數據處理流程。 這份職缺主要任務是設計並維運高可靠性的 ETL 與 Airflow 數據流程,確保資料能自動化運行、正確轉換,成為企業決策與 AI 應用的核心動能。 【工作內容】 1. 規劃、開發與維運企業級 ETL 數據流程,確保資料高效流轉與品質穩定 2. 使用 Apache Airflow 建立自動化排程與監控機制,確保任務準時執行與可追蹤性 3. 使用 Python(pandas、numpy 等)進行資料清理、轉換與整併,支援分析與應用服務 4. 負責 MongoDB 的資料設計、查詢效能優化與維運管理 5. 需「派駐」至健康管理企業現場,協助數據流程導入與落地 【必備技能】 - 精通 Python 程式設計與數據處理(pandas、numpy) - 具備 ETL / Airflow 實務經驗(包含 DAG 設計、排程與監控) - 具良好資料處理邏輯與數據品質控管概念 - 熟悉 Git 版本控制與 CI/CD 自動化部署流程(ex: GitHub Actions 或 GitLab CI) 【加分技能】 1. MongoDB 架構設計與操作 2.. 具備資料倉儲或數據湖架構經驗 3. 資訊工程、資訊管理、數學、統計等相關背景尤佳 【我們的願景】 加入果友科技,與我們一起打造穩健的數據基礎設施,讓資料在企業間流動得更順暢,持續以數據創造影響力 有興趣者歡迎投遞履歷或直接聯繫我們,期待你的加入!
應徵
10/29
台北市信義區3年以上大學
誠品致力於打造結合文化、閱讀與生活的全通路生態圈,透過數位創新提升顧客體驗,實現線上與線下服務的無縫整合。 資訊暨商業應用創新處(ICI)負責誠品各類資訊系統的管理與維運,並專注於全通路服務的技術開發、數據分析、雲端技術與 AI 應用,致力於打造創新高效的數位解決方案。我們的目標是實現數據驅動決策、自動化流程與跨通路無縫連結,推動企業數位轉型。如果您對資訊技術充滿熱情,誠心邀請您投遞此職務,加入 ICI,與我們一同解鎖潛力、編碼未來,穩健前行。 【工作內容】 1.Looker Core維護與開發: 建置、維護及優化Looker資料模型與報表,提供各部門精準的決策數據。 設計並開發LookML,實現複雜的數據分析需求。 負責Looker系統的權限控管與使用者管理。 2.BigQuery數據維護與優化: 使用Composer排程,自動化數據處理流程,確保數據品質與時效性。 利用Dataform開發、管理及維護數據管道,提升數據處理效率。 進行BigQuery資料結構優化,提升查詢效能。 3.AI工具導入與應用: 參與AI工具在BigQuery與Looker Core上的導入與應用,探索AI在數據分析領域的潛力。 透過AI輔助工具,提升工作效率,並開發創新的數據分析解決方案。
應徵
10/31
台北市松山區1年以上大學
COMMEET (https://commeet.co) 擴大徵才,歡迎有熱情之新夥伴加入我們的行列 [工作內容] 1 整理、標記數據,以確保數據的準確性與可靠性 2 建立/維護/優化資料處理流程與架構(data pipeline) 3 跟相關的stakeholder合作,解決並優化他們的數據需求 4 其它主管交辦事項。 [必要條件] • 從業人員恪守客戶個資保護敏感度及尊重客戶資料隱密性 • 熟悉 ML/DL • 熟悉 python 語言與相關資料庫 (csv、postgres、redis、excel) • 熟悉圖表可視化(Visualization),以及圖表分析能力 • 熟悉 git 版本控制 • 如線上初試通過者,將安排線下複試,複試安排 leetcode [加分項目] • 具有 OCR 處理數據經驗 • 有kaggle 等競賽平台經驗 • 有新創公司經驗 • 有FinTech 或 ERP/CRM 經驗 [人格特質] • 獨立作業的能力 • 細心負責任 • 勇於溝通,樂於表達自己的想法 • 喜歡主動學習新技術,願意與團隊研究及分享技術新知
應徵
10/28
台北市大安區1年以上專科以上
【工作內容】 1.應用服務開發與維護 開發與維護數據應用服務(API),確保業務服務穩定運行。 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 建立與管理 CI/CD Pipeline,提升開發與部署效率。 持續監控服務效能,進行問題排查、升級與最佳化。 【技能需求】 1.熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 2.熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 3.了解容器化技術(Docker、Kubernetes)。 4.了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【加分項目】 1.具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 2.具備 Terraform 或其他 IaC 工具經驗。 3.具備 DevOps / Cloud Engineer 相關工作經驗。 4.具備網路/資訊安全管理經驗。 5.具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/27
域動行銷股份有限公司廣告行銷公關業
台北市松山區1年以上大學以上
公司介紹: 域動行銷是中華電信集團轉投資公司之一,成立於2009年,致力於提供創新的數位廣告解決方案,當中包含廣告系統DSP、SSP、CDP、混血數據及廣告聯播網等,我們通過創新的行銷技術解決方案來推動廣告和數據分析的發展,同時專注於行銷科技領域,提供前瞻性的觀點,引領數據行銷的未來。 組織介紹: 域動Data Team是由一群對『數據分析』及『AI應用』具有研究及開發熱誠的成員所組成。在這裡你可以接觸到大量即時的使用者行為資料,並將資料科學模型應用於: 『網路廣告投放優化』 『網路用戶辨識』 『消費者行為分析』 我們更致力於尋找優化方案,改善產品體驗設計及為商業決策提供數據支持,提升效率和價值。我們鼓勵組員多方嘗試、思考、展現天馬行空的創意,且能清楚闡述想法,付諸實踐。 【Job Description】 • 須熟悉python, 尤其是對pyspark操作有經驗 • 具備優化資料流和處理效率的專業知識,以及處理每日一億筆記錄的資料吞吐量的經驗 • AWS、GCP 等雲端平台的實務經驗 • 熟練開發強大的data pipeline,包括資料收集和 ETL(擷取、轉換、載入)流程 • 具備設計和實施資料平台各種元件的經驗,包括資料攝取、儲存、資料倉儲、資料編排 • 持續整合和持續部署(CI/CD)流程的經驗 【Qualifications】 1. 熟悉 ML 相關知識 2. 熟悉Python程式語言,以pyspark模組為主 3. 熟悉Linux 系統操作 4. 熟悉資料庫程式語言 SQL 【Preferred Qualifications】 1.具備機器學習平台經驗,例如 KubeFlow、MLflow 或 Vertex AI 2.具備API設計與實作經驗 3.具備使用 AWS Kinesis、Spark Streaming 等串流工具的經驗 4. 具有數位廣告相關經驗 6. 具有分散式運算的相關知識,如 Spark、Hadoop、Hive 7. 有使用過GCP, AWS 等雲端服務經驗佳 【加分項目】 熟悉scale, JAVA 熟悉資料湖相關技術 統計學專長
應徵
10/29
台北市信義區3年以上大學
您是否渴望在金融科技的前沿,以前瞻數據、AI 與 LLM 技術驅動創新,塑造未來金融服務? 科技創研中心金融科技處,正積極尋找充滿熱忱、具備專業技能的 數據暨AI工程師 加入我們的創新團隊。您將負責金融科技領域的企業級數據平台、AI 平台及 LLM 相關基礎設施的開發、管理與優化,尤其著重於 Data Lakehouse 架構的實踐與 Denodo 虛擬化技術的應用,並參與大型語言模型 (LLM) 在金融領域的應用開發與部署,確保數據的安全性、高效傳輸與穩定運作,為金融 AI/LLM 應用與策略決策提供堅實的技術後盾,助力提升金融服務的競爭力與創新能力。如果您對數據工程、AI/LLM 工程在金融領域的應用充滿熱情,並熟悉 Data Lakehouse、Denodo 等先進技術,且對 LLM 的發展與應用有深入了解,渴望在充滿挑戰與成長的環境中發揮所長,誠摯邀請您加入我們! 【工作職責】 •Data Lakehouse 平台開發與管理: 負責金融科技領域基於 Data Lakehouse 架構的數據平台設計、開發、部署、維護與優化,整合結構化與非結構化數據,提供彈性高效的數據存儲與分析能力,以支持 LLM 相關應用所需的大規模數據。 •Denodo 虛擬化平台管理與開發實作: 負責 Denodo 虛擬化平台的設計與管理,實現多個異質數據源的邏輯整合,提供統一的數據存取介面,簡化數據獲取流程,以支援 LLM 應用所需的多樣化數據來源。 •數據管道開發: 設計並實作高效能的 ETL/ELT 流程,處理多元金融數據來源 (例如:交易數據、市場數據、客戶數據、文本數據等),確保數據的準確性、完整性與即時性,並能有效整合至 Data Lakehouse 或透過 Denodo 進行虛擬化,以供各單位進行分析與應用。 •數據整合與清理: 負責數據的整合、轉換、清理、標準化與特徵工程,提高數據品質,為後續的數據分析、風險模型、 AI 模型與 LLM 的訓練及微調 奠定良好基礎,並考量 Data Lakehouse 的數據治理與管理。 •AI/LLM 平台管理: 負責企業 AI 平台、LLM 相關基礎設施 (例如:GPU 伺服器、模型儲存、API 部署等) 及 MLOps 流程的維護、管理與優化,確保企業內 AI/LLM 模型開發、訓練、微調與安全部署流程的順暢與高效,符合金融保險行業的合規要求,並能有效利用 Data Lakehouse 中的數據。 •LLM 應用開發與部署: 參與金融領域大型語言模型 (LLM) 的應用開發、測試與部署,例如:AI Agent、文本分析、資訊抽取、內容生成等。 •數據監控與效能調校: 開發與運營數據管道、數據庫、Data Lakehouse、AI 平台及 LLM 應用 的監測機制,進行效能分析與調校,確保系統的穩定運行與高效能,並符合系統穩定性的嚴格要求。 •跨部門協作: 與AI 科學家、IT 部門、Biz部門 (例如:通路、核保、商品等) 等緊密合作,深入了解企業業務需求與痛點,提供穩健且高效的數據與 AI/LLM 平台解決方案,並能利用 Data Lakehouse 和 Denodo 提供的能力。
應徵