104工作快找APP

面試通知不漏接

立即安裝APP

「【產品處】【數據組DataTeam】資料工程師/數據工程師/Data Engineer」的相似工作

域動行銷股份有限公司
共501筆
精選
科爾迪股份有限公司電腦軟體服務業
台北市松山區5年以上大學以上
・協助研發軟體新技術與新工具 ・金融系統開發 ・負責軟體之分析、設計以及程式撰寫 ・進行軟體之測試與修改
應徵
10/30
台北市大同區經歷不拘大學以上
【工作內容】 1.協助客戶安裝與部署 Pentaho 產品,包括 Pentaho Data Integration(PDI)、Pentaho Server 和 Pentaho Report Designer。 2.使用 ETL 工具(Pentaho PDI、Talend、Informatica、Microsoft SSIS 等)進行數據抽取、轉換與載入,確保資料正確性與完整性。 3.熟悉 Python 或 Java 等程式語言,能撰寫 ETL 腳本與自動化流程。 4.設計並維護 Data Model,建立高效、可擴充的數據架構。 5.開發與維護 Data Warehouse,確保數據一致性、完整性與可靠性。 6.熟悉 SQL 與常見資料庫(RDBMS / NoSQL),能分析並解決複雜的資料問題。 7.協助客戶安裝與配置 OpenMetadata,並整合至既有數據管理環境。 8.使用 OpenMetadata 平台建立與維護數據資產目錄,協助定義數據標準、數據政策與分類。 9.整合 OpenMetadata 與其他數據管理工具(ETL、資料庫、BI 工具等)。 10.撰寫專案與技術文件,包括安裝手冊、教育訓練教材與客戶需求文件。 11.參與客戶需求訪談,協助規劃與導入完整的數據平台解決方案。 12.其他主管交辦事項。 【必要條件】 1.具備 SQL 語法與資料結構基礎,理解 Data Flow 並能應用於實務案例。 2.熟悉 ETL 工具操作與數據處理邏輯。 3.至少熟悉一種程式語言(Python / Java),能進行自動化與流程開發。 4.理解 Data Model 設計理論並具備實務經驗。 5.良好的溝通能力,能與客戶合作並釐清需求。 6.具備獨立作業與問題解決能力,能快速學習新技術。 【加分條件】 熟悉 Pentaho PDI 或 OpenMetadata 平台。 具備 Data Warehouse、資料治理、資料湖泊等相關經驗。 有報表系統(如 Pentaho Report Designer、Power BI、Tableau)應用經驗。 瞭解雲端數據平台(如 AWS Redshift、GCP BigQuery、Snowflake)尤佳。 具備教育訓練、技術文件撰寫與客戶導入顧問經驗。 【發展方向】 短期(1–2 年):熟悉 Pentaho / OpenMetadata / DWH 平台導入,能獨立執行專案模組。 中期(2–4 年):成為能夠進行跨系統數據整合與數據治理規劃的顧問。 長期(5 年以上):成長為資料架構師 / 雲端數據平台專家,能帶領團隊規劃企業級數據平台。
應徵
10/28
咖米股份有限公司其它軟體及網路相關業
台北市中正區5年以上專科以上
【擴編】資深數據分析師|Senior Data Analyst Kamee咖米是結合科技與健康的品牌。 希望藉由數據替每個人打造專屬於自己的個人化健康方案,帶給世界更美好的生活! 主要提供服務包含【客製化保健品訂閱服務】及【智能健康評估系統】 ★ 咖米獲選經濟部FINDIT早期投資系列活動企業 ★ Google台灣區Project Hatcher的合作企業 ★ 鴻海集團旗下康聯生醫的戰略合作夥伴 ★ 成為北美矽谷加速器暨創投基金SparkLabs Taiwan Portfolio 我們創造開放、共享的企業文化,重視成員身心內外成長, 相信只有擁有共同目標和願景的團隊,才能一起共創未來! ▼ 咖米官網: https://kameelife.com ▼ 臺北國際會議中心產品發布會: https://youtube.com/watch?v=Qw_dZzjFFEE&feature=share7 ▼ EE TIMES國際媒體專訪: https://www.linkedin.com/feed/update/urn:li:activity:7080444553702342656 —— 我們需要 —— ■【擴編】資深數據分析師|Senior Data Analyst Kamee 正在從成長型新創邁向數據驅動決策階段, 我們需要一位能讓數據成為商業引擎的夥伴。 你將整合公司數據資料,建立自動化報表與成長模型, 讓數據不只是報表,而是驅動品牌成長的動力。 —— 你的目標 —— ■整合行銷、營運、CRM、訂閱與網站數據資料,打造能驅動成長的數據基礎。 ■分析行銷、營運與顧客行為,洞察 CAC、ROAS、LTV、留存等核心指標背後的成長關鍵點。 ■與行銷、產品、營運等部門合作,發掘成長機會並優化用戶體驗。 ■建立資料驅動文化,推動公司長期決策與預測模型的發展。 —— 期待的人 —— ■對數據有好奇心,會思考「數據想告訴我什麼真相」。 ■動手能力強、學得快,能自行接資料、建報表、跑分析,樂於優化流程。 ■具備商業敏銳度,能從數字理解營運邏輯與用戶行為。 ■擅長跨部門合作,能用數據推動行銷、工程、客服、財務更有效率地前進。 ■結果導向,重視實際成長與影響力,而非僅追求報表好看。 我們在尋找能從數據中發掘商業洞察,並以此幫助團隊推動決策的夥伴,不一定要有完整系統背景,只要具備強邏輯與實作力。 —— 經歷技能 —— 【經歷】 ■5年以上數據分析或相關經驗。 ■熟悉行銷或電商數據分析(懂 CAC、LTV、ROAS、留存率等概念)。 ■具跨部門溝通經驗,能用簡單語言說清複雜數據。 【技能】 ■熟悉 SQL、Python(或 R),能獨立清理與分析資料。 ■熟悉 GA4、Meta Ads、Google Ads、CRM 等數據串接與分析。 ■能操作 BI 工具(如 Looker Studio、Power BI、Tableau)建立互動式報表。 【加分條件】 ■熟悉 BigQuery、Redshift、Snowflake 或 API 串接整合 ■具備自動化報表或儀表板建置經驗(如 GA4、Looker Studio、Power BI) ■能運用 AI 工具(如 GPT、Gemini)輔助資料分析與模型優化 —— 主要職責 —— ■優化公司既有數據架構與自動化報表系統(GA4、CRM、投放平台、ERP、內部數據儀表板)。 ■協助行銷與產品團隊發現成長機會,分析行銷投放、顧客行為與營運成效,找出轉換與留存的驅動因素。 ■設計 CAC、ROAS、LTV、留存率等 KPI 模型與可追蹤機制。 ■跨部門協作,提供行銷與營運團隊所需的數據洞察,協助制定成長策略。 ■持續優化資料整合流程,建立公司未來資料科學基礎。 Report to Marketing head 在 Kamee,你的分析結果不只是一份報表, 而是會直接影響產品、行銷與營運策略的「決策引擎」。 如果你想親手打造一家健康科技品牌的數據策略,我們非常期待你加入! —— 薪資待遇 —— $70,000~$110,000/月 /月起(視能力與經驗彈性調整) 此職缺不接受遠端工作
應徵
10/28
台北市大安區1年以上專科以上
【工作內容】 1.應用服務開發與維護 開發與維護數據應用服務(API),確保業務服務穩定運行。 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 建立與管理 CI/CD Pipeline,提升開發與部署效率。 持續監控服務效能,進行問題排查、升級與最佳化。 【技能需求】 1.熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 2.熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 3.了解容器化技術(Docker、Kubernetes)。 4.了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【加分項目】 1.具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 2.具備 Terraform 或其他 IaC 工具經驗。 3.具備 DevOps / Cloud Engineer 相關工作經驗。 4.具備網路/資訊安全管理經驗。 5.具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/27
HUA AO_香港商創金科技有限公司其它軟體及網路相關業
台北市大同區2年以上專科
【工作內容】 1. 熟練掌握 SQL、Python,瞭解數據建模理論 2. 熟悉數據倉庫工具(如 Snowflake、Redshift、BigQuery、Databricks 等) 3. 使用 BI 可視化工具(如 Power BI、Tableau、Looker) 4. 有支付相關業務(如交易數據、支付成本、渠道分潤)分析經驗 5. 具 ETL 構建經驗,熟悉 Airflow、DBT 等數據編排工具經驗 【加分條件】 有參與資料平台、BI 系統或數據倉儲專案的經驗,能獨立完成中小型任務 熟悉 Git、CI/CD、Docker 等基礎 DevOps 工具者佳 參與團隊數據治理與標準制定經驗者尤佳 具備良好的跨部門溝通與協作能力,能協助推動任務執行與進度管理
應徵
10/28
台北市中山區2年以上大學
【工作內容】 1. 將概念性想法設計規劃為可執行的解決方案 2. 大數據專案的規劃,數據接入、清洗、建模與可視化的設計 3. 與機器學習工程師、雲端架構師、PM密切合作共同合作完成專案,供客戶高質量的雲端數據相關服務 4. 負責協助客戶整合、設計、部署大數據處理流程與平臺 5. 探索雲端服務組合的可能性,創造全新的可能性 【必備技能/條件】 1. 3 年以上資料排程、處理、清洗、分析的實務經驗 2. 2 年以上資料處理常用的 Open Source 工具的實務經驗,eg. Spark, Airflow, hadoop 3. 2 年以上Python / Java 程式語言開發相關工作經驗 4. 擅長解決問題、除錯、故障排除,提出問題解決方案 【加分條件】 1. 具備BigQueryRDBMSNoSQL使用經驗 2. 具備爬蟲相關經驗 3. 熟悉 Restful API
應徵
10/15
台北市南港區7年以上大學以上
【崗位職責】 1) 負責公司內部資料平臺的規劃、開發與持續優化,保障資料的完整性、可用性與安全性。 2) 基於 AWS 雲平臺及主流服務(如 EC2、S3、Redshift、Glue、Lambda、Athena 等)設計並實現高可用、高性能的資料處理與分析系統。 3. 設計並實施可擴展的後端服務,支援資料流程處理、ETL 流程、API 介面與任務調度邏輯。 4. 搭建並維護資料視覺化與 BI 平臺(如 QuickSight等)。 5. 深度參與資料治理、資料建模、資料品質監控等體系建設。 6. 著重資料蒐集處理流程。 7. 與業務部門合作,提供穩定高效的資料分析支援。 【任職要求】 1) 資管/資工/電機相關大學以上學歷,10 年以上軟體發展經驗,其中 5 年以上後端系統開發經驗。 2) 精通至少一種主流程式設計語言(如 Python、Java、Go 等),並熟悉 SQL 與資料處理框架(如 Spark)。 3) 熟悉 AWS 雲平臺及主流服務(S3、Redshift、Glue、Lambda、Athena 等),具備實際專案執行經驗。 4) 有大型分散式系統或資料平臺建設經驗,具備良好的系統架構能力。 5) 熟悉資料建模、資料分層架構、資料治理理念。 6) 具備 BI 視覺化系統或報表平臺的搭建與運維經驗。 7) 較強的溝通能力、團隊協作精神和自我驅動能力。
應徵
10/27
台北市大安區1年以上大學以上
【About Us】 歡迎加入「國泰健康管理」!我們是一個充滿活力、追求創新、以數據和科技驅動健康管理變革的團隊!在這裡,你將與一群熱愛科技、關心健康、充滿創造力的夥伴並肩作戰,共同探索智能健康的無限可能。 我們相信「想要健康不能靠感覺」,而是基於精準數據的科學管理。 我們的使命是:整合數位、數據和 IT 技術,打造個人化的健康管理解決方案,讓人人都能擁有健康自信的人生,實踐『健康就在生活裡,解方就在數據裡』 【We Need You to …】 1.應用服務開發與維護 • 開發與維護數據應用服務(API),確保業務服務穩定運行。 • 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 • 建立與管理 CI/CD Pipeline,提升開發與部署效率。 • 持續監控服務效能,進行問題排查、升級與最佳化。 【About You】 • 熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 • 熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 • 了解容器化技術(Docker、Kubernetes)。 • 了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【Plus】 • 具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 • 具備 Terraform 或其他 IaC 工具經驗。 • 具備 DevOps / Cloud Engineer 相關工作經驗。 • 具備網路/資訊安全管理經驗。 • 具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/29
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
10/30
果友科技有限公司電腦軟體服務業
台北市大安區1年以上學歷不拘
我們正在尋找一位具備後端思維的數據工程師,與企業客戶的產品與分析團隊合作,打造高品質的數據供應與自動化環境。 你的主要任務是確保數據能穩定流動、被正確處理與自動化運作,成為支撐企業決策與AI應用的堅實基礎。 【工作內容】 1. 設計、開發與維護數據流程(Data Pipeline),打造穩定且高效的數據基礎架構 2. 使用 Python(pandas、numpy 等)進行數據清理、轉換與處理 3. 建立與維護 ETL 流程,確保資料品質、完整性與可追溯性 4. 建置與串接 API 與外部資料源,整合成統一的資料服務 5. 將數據處理流程自動化,並協助部署至雲端或容器化環境(如 Docker) 6. 需「派駐」至健康管理企業現場,協同客戶團隊實作與優化數據架構 【必備技能】 - Python:具備後端開發與數據處理能力,熟悉 pandas、numpy 等數據處理套件 - API 建置與整合:具備 FastAPI 建置與類似框架設計與串接經驗 - 資料流程思維:能理解資料從來源到應用的完整流向,具備基礎 ETL 概念 【加分技能】 1. 熟悉 Docker 或其他容器化技術,能協助部署與環境管理 2. 熟悉雲端平台(AWS、GCP、Azure等),具雲端自動化部署經驗 3. 擁有資訊工程、資訊管理、數學、統計相關背景者尤佳 【我們的願景】 加入果友科技,與我們一起用數據創造影響力。 這裡是讓你深入理解企業實際運作、與資料應用團隊並肩打造自動化數據服務的最佳舞台。 有興趣歡迎投遞履歷或直接聯繫我們,期待你的加入!
應徵
10/29
台北市信義區3年以上大學
您是否渴望在金融科技的前沿,以前瞻數據、AI 與 LLM 技術驅動創新,塑造未來金融服務? 科技創研中心金融科技處,正積極尋找充滿熱忱、具備專業技能的 數據暨AI工程師 加入我們的創新團隊。您將負責金融科技領域的企業級數據平台、AI 平台及 LLM 相關基礎設施的開發、管理與優化,尤其著重於 Data Lakehouse 架構的實踐與 Denodo 虛擬化技術的應用,並參與大型語言模型 (LLM) 在金融領域的應用開發與部署,確保數據的安全性、高效傳輸與穩定運作,為金融 AI/LLM 應用與策略決策提供堅實的技術後盾,助力提升金融服務的競爭力與創新能力。如果您對數據工程、AI/LLM 工程在金融領域的應用充滿熱情,並熟悉 Data Lakehouse、Denodo 等先進技術,且對 LLM 的發展與應用有深入了解,渴望在充滿挑戰與成長的環境中發揮所長,誠摯邀請您加入我們! 【工作職責】 •Data Lakehouse 平台開發與管理: 負責金融科技領域基於 Data Lakehouse 架構的數據平台設計、開發、部署、維護與優化,整合結構化與非結構化數據,提供彈性高效的數據存儲與分析能力,以支持 LLM 相關應用所需的大規模數據。 •Denodo 虛擬化平台管理與開發實作: 負責 Denodo 虛擬化平台的設計與管理,實現多個異質數據源的邏輯整合,提供統一的數據存取介面,簡化數據獲取流程,以支援 LLM 應用所需的多樣化數據來源。 •數據管道開發: 設計並實作高效能的 ETL/ELT 流程,處理多元金融數據來源 (例如:交易數據、市場數據、客戶數據、文本數據等),確保數據的準確性、完整性與即時性,並能有效整合至 Data Lakehouse 或透過 Denodo 進行虛擬化,以供各單位進行分析與應用。 •數據整合與清理: 負責數據的整合、轉換、清理、標準化與特徵工程,提高數據品質,為後續的數據分析、風險模型、 AI 模型與 LLM 的訓練及微調 奠定良好基礎,並考量 Data Lakehouse 的數據治理與管理。 •AI/LLM 平台管理: 負責企業 AI 平台、LLM 相關基礎設施 (例如:GPU 伺服器、模型儲存、API 部署等) 及 MLOps 流程的維護、管理與優化,確保企業內 AI/LLM 模型開發、訓練、微調與安全部署流程的順暢與高效,符合金融保險行業的合規要求,並能有效利用 Data Lakehouse 中的數據。 •LLM 應用開發與部署: 參與金融領域大型語言模型 (LLM) 的應用開發、測試與部署,例如:AI Agent、文本分析、資訊抽取、內容生成等。 •數據監控與效能調校: 開發與運營數據管道、數據庫、Data Lakehouse、AI 平台及 LLM 應用 的監測機制,進行效能分析與調校,確保系統的穩定運行與高效能,並符合系統穩定性的嚴格要求。 •跨部門協作: 與AI 科學家、IT 部門、Biz部門 (例如:通路、核保、商品等) 等緊密合作,深入了解企業業務需求與痛點,提供穩健且高效的數據與 AI/LLM 平台解決方案,並能利用 Data Lakehouse 和 Denodo 提供的能力。
應徵
10/29
台北市松山區2年以上專科以上
我們正在尋找一位熱情且富有才華的資料工程師,加入我們的團隊,協助解決廣告投遞的資料內容。在這裡有大量的數據供你發揮所長,將學過的知識及方法應用到實務的工作上。 我們希望你具備以下三大特質: 對資料工程領域有強烈興趣和熱情 。 重視團隊合作,具備良好的溝通能力 。 具有自我學習能力,能夠快速適應新技術。 職責: 資料取得 - 串接內外部廣告資料,必要時設計和構建資料倉儲系統。 資料清洗 - 進行資料格式的清理、轉換和處理,確保資料品質。 資料分析 - 運用統計和機器學習技術進行深入分析,提供有價值的洞察。 資料視覺化 - 若有需要,根據分析的數據提供統計圖表或報告。 程序開發 - 根據業務需求設計、開發和優化資料處理流程和模型。 系統維護:持續監控、維護和優化現有的資料系統和流程。 具備 2 年以上相關領域的開發經驗 ◆ 精通 Python 程式設計 ◆ 熟悉 Git 版本控制 ◆ 具備以下至少一種資料庫使用經驗:SQL、NoSQL、Redis、BigQuery ◆ 基本 Linux 操作概念、Shell script ◆ 學習新工具的能力、樂於學習的精神。 ◆ 重視程式可讀性、效能、安全性、可靠度。
應徵
10/27
極風雲創股份有限公司網際網路相關業
台北市信義區3年以上專科
工作內容 極風雲創致力於拓展 AI 驅動的應用資安智能解決方案與服務,我們正在尋找具備創新思維與跨領域整合能力的資料工程師,一起打造具影響力的產品,推動企業數位轉型與智慧防禦。 【主要職責】 負責AI訓練前置資料整理與轉換,資安資料、資安產品日誌資料、法規資料等等,將相關資料進行數據分類與建庫,以及優化AI抽取的資料庫語法優化與效能提升。 【職務需求】 • 具備 高度企圖心、責任感與自我驅動力,勇於挑戰並樂於學習新事物。 • 優秀的 溝通與協調能力,能快速理解問題並提出具體解決方案。 • 具備 AI / 資料庫建置與管理,相關經驗,熟悉RAG向量資料庫建置,及MYSQL ELK 等等使用相關經驗 • 對 AI 應用、雲端平台或資安領域 有濃厚興趣或相關經驗。 • 需要與資安工程師、法務等等,將文件與資料進行向量資料庫建置與管理,以及與前後端工程師溝通討論串接API與測試RAG效果,並與AI訓練工程師,提供AI訓練品質與精準度。 我們提供 • 參與 AI + 資安 相關產品研發,影響未來數位防禦的機會。 • 彈性且具挑戰性的工作環境,鼓勵創新與跨域合作。 • 完整的職涯發展與學習資源,讓你在 AI 與雲端資安領域快速成長。 【 職位條件】 • 電腦科學、資訊工程、資訊管理或相關科系學士/碩士學位 • 具備 AI或資料庫相關產品開發相關背景者佳 • 具備問題解決、創新能力,推動團隊達成目標
應徵
10/23
凌越生醫股份有限公司生化科技研發業
台北市內湖區經歷不拘專科
1. 負責網站(官網、電商網站)編碼,外鏈建置工作,能夠快速為網站獲取高權重鏈接;提高網站整體流量。 2. 瞭解SEO原理和實施方法,如關鍵字優化、標籤優化、標題優化、關鍵字排名優化等。 3. 監測分析公司與競業網站流量,排名收錄等數據,並優化網站整體排名。 4. Google Ads平台操作:設定廣告活動、彙整廣告數據、撰寫報表分析、優化文案的策略。 5. 分析與追蹤 Facebook、Instagram、LINE、Google(GA4、Ads、Search Console)等數位媒體平台數據,評估貼文互動、廣告投放、觸及率、點擊率與轉換率,並提出優化與廣告預算調整建議。 6. 利用 Google Analytics 等工具追蹤官網訪客行為、跳出率、轉換路徑與銷售績效,分析網站活動成效與回購率。 7.CRM系統維運(活動短網址、串接商機、成交率分析等)
應徵
10/28
台北市信義區3年以上大學以上
【工作內容】 1.整合各來源資料(資料庫、API、GA、CRM、ERP、Excel 等),確保資料正確與一致性。 2.進行資料清理、轉換與標準化,維持高品質資料基礎。 3.撰寫 SQL 或 Python 程式以提取、處理與分析數據。 4.執行探索性資料分析(EDA),找出趨勢、異常與關鍵洞察。 5.建立與維護視覺化報表與儀表板(Power BI、Tableau、Looker Studio 等)。 6.協助設定與追蹤商業指標(KPI、ROI、轉換率、留存率等),提供決策依據。 7.針對行銷、銷售與顧客行為等提出數據洞察與行動建議。 8.製作定期分析報告,向主管或決策層呈報成果。 9.與跨部門(行銷、營運、產品、財務)協作,支援數據決策需求。 10.優化分析流程,推動自動化與資料治理機制。 【工作需求】 1.具資料分析、統計或商管相關背景。 2.熟悉 Excel 進階功能(樞紐分析、Power Query、公式邏輯)。 3.熟練 SQL 查詢語法,能獨立撈取與整理資料。 4.熟悉 Python 或 R,能進行資料清理與分析。 5.具備資料視覺化工具使用經驗(Power BI、Tableau、Looker Studio 等)。 6.理解統計分析概念(平均、標準差、迴歸、分群、A/B Test)。 7.具良好邏輯思維與問題解決能力。 8.能將數據轉化為具體的商業洞察與策略建議。
應徵
10/17
台北市內湖區1年以上大學以上
我們正在尋找對科技趨勢敏銳、樂於實驗的技術創新人才。你將成為旅遊科技部的技術推進引擎,結合 AI、前沿工具與跨領域思維,探索下一個改變旅遊產業的數位可能。 1. 介接並整合內外部資料來源,確保資料的高可用性與一致性 2. 設計、開發、測試與維護資料處理流程與管道(如 EDI、ETL) 3. 優化資料存儲架構與查詢效能,提升系統整體效能 4. 管理與優化資料管道排程,確保資料流穩定與準時更新 5. 執行資料治理機制,落實資料品質管理與監控 6. 與資料分析師與資料科學家協作,提供穩定且高品質的資料支持 7. 撰寫並維護相關技術文件,確保知識傳承與系統可維護性 8. 其他主管交辦事項 職務需求: 1. 關聯式資料庫: SQL Server 2. 非關聯式資料庫: MongoDB 3. 程式語言: C#、T-SQL 4. 工具: SSMS、SSIS、Power BI
應徵
10/27
新北市中和區2年以上碩士以上
【職位簡介】 作為東森得易購大數據中心的數據工程師,您將參與全通路電商、會員經濟、生醫保健、寵物與高端生活等關鍵業務的數據基礎建設,負責資料的整合、清洗、建模與串接。協助構建跨 TV、EC、OB/IB Call Center、Regal SPA、寵物雲、民調雲的「OneID資料湖」與 AI 大腦基礎平台,推動集團邁向 AI 自動化與千人千面精準行銷。 【工作內容】 • 建置並維護企業級數據平台(Data Warehouse / Data Lake / Microsoft Fabric / AWS S3 等) • 設計並開發 ETL/ELT 流程,處理會員、交易、商品、節目、行銷等核心資料 • 串接內部 ERP、CRM、CDP、API 或外部數據源,提升數據整合效率與一致性 • 與數據科學家、商業分析師合作,優化資料模型與查詢效能 • 支援 Power BI / Copilot BI / Tableau 等商業儀表板背後的資料管線與維運 • 管理資料版本與品質監控,確保資料可信、準確與即時
應徵
08/13
台北市南港區經歷不拘大學
工作內容: 開發與維護自動化數據處理流程(ex: Pipeline、Airflow) 建置並優化各式網路爬蟲(ex: Requests、Playwright、Scrapy ) 使用 Django 開發後端服務與 API,串接資料庫與前端系統 操作並優化資料庫(MariaDB、Redis),確保效能與穩定性 在 AWS(EC2、S3、RDS 等)環境中部署、監控與維運服務 協作AI應用模型 必備條件: 熟悉 Python,能獨立開發爬蟲、資料處理與 API 熟悉 Django 後端框架與 RESTful API 開發 熟悉 SQL(MariaDB)與快取系統(Redis) 具備自動化排程與數據管道開發經驗 具備 AWS 雲端平台使用經驗(EC2、S3、RDS 等) 良好的溝通能力與跨部門協作經驗 加分條件: 熟悉 Docker 具備前端基礎(HTML / CSS / JavaScript)可進行簡單資料視覺化 具備 機器學習或深度學習專案經驗
應徵
10/29
中嘉數位股份有限公司網際網路相關業
台北市內湖區2年以上大學以上
1. SAP BO報表設計與維運。 2. ETL程式開發,熟悉Trinity尤佳。 3.運用溝通技巧與資料分析技能協助使用者釐清問題 【必需技能】 1. 熟悉SQL語法,具有至少1年以上的相關工作經驗。 2. 熟悉資料庫Greenplum 、MS SQL尤佳。 【其他技能 】 有SAP BO報表開發與資料倉儲經驗為優先。 【專業培訓】 1.提供Greenplum語法觀念/效能調教等基礎教學。 2.提供SAP BO教學 3.提供ETL工具(Trinity)專業教育訓練。 4.部門不定期開立技術/架構教學研討會。
應徵
07/24
台北市內湖區3年以上大學以上
【工作內容】 . 使用 Azure Databricks、Data Factory、Data Lake Gen2 等工具建立並維運 ETL 流程。 . 整合 ERP、CRM、IoT 等多來源資料,進行清洗與轉換並寫入 Azure Data Lake。 . 與資料科學團隊合作,提供模型所需的資料集與特徵工程支援(如 LightGBM、XGBoost)。 . 透過Power BI進行資料串接與報表資料結構設計,確保分析資料即時、準確。 . 撰寫技術文件,維護資料流程運作紀錄與治理機制。 【必要條件】 . 熟悉 Azure 平台操作(Databricks、Data Factory、Data Lake Gen2)。 . 熟悉 Python 語言,能獨立進行資料清洗與處理。 . 具 SQL 查詢能力與資料模型設計經驗。 . 有與資料科學或 BI 團隊協作經驗,熟悉 Power BI 或其他可視化工具資料串接。 【加分條件】 . 具備使用 LightGBM / XGBoost 經驗。 . 熟悉 Git、CI/CD、自動化流程或 Docker 等 DevOps 工具 . 有 Azure DP-203、DP-100 證照尤佳 . 英文讀寫能力佳,能閱讀技術文件與跨部門溝通
應徵
10/30
台北市松山區1年以上碩士
i-Buzz的核心理念是數據推動行銷策略,透過網路語料觀察與混搭資料研究進行開發,提供客戶深化的資料分析結果。另外欲透過自營的數位產品,挖掘使用者的行為數據,提供產品更好的體驗。 職務說明 (著重在 LLM 資料工程,偏PM型的分析師) 1. 跨部門需求訪談與數據集建置 (將內部知識轉為可訓練樣本,約70%工作內容) • 跨部門協作盤點要 AI 化的報告與事項。 • 設計資料 Schema / 標註規範 (欄位定義、段落角色、決策結論)。 • 建立可用於模型訓練的結構化資料集。 2. 生成式 AI 模型微調與優化 (約30%工作內容) •客製化 GPT 或開源模型微調 (上傳內部資料集建置專屬 GPT,或對 Hugging Face 模型進行 SFT/LoRA 微調,擇一即可)。 此職缺需熟悉 Python 並具生成式 AI 基礎概念 ; 擅長跨部門溝通,具將需求轉為可訓練樣本之經驗尤佳。 誠摯歡迎符合以上條件或有興趣者,且具責任心、勇於接受挑戰者的加入。
應徵