104工作快找APP

面試通知不漏接

立即安裝APP

「AI Data Engineer(AI數據工程師)」的相似工作

統一資訊股份有限公司
共500筆
10/20
台北市大安區1年以上大學以上
【About Us】 歡迎加入「國泰健康管理」!我們是一個充滿活力、追求創新、以數據和科技驅動健康管理變革的團隊!在這裡,你將與一群熱愛科技、關心健康、充滿創造力的夥伴並肩作戰,共同探索智能健康的無限可能。 我們相信「想要健康不能靠感覺」,而是基於精準數據的科學管理。 我們的使命是:整合數位、數據和 IT 技術,打造個人化的健康管理解決方案,讓人人都能擁有健康自信的人生,實踐『健康就在生活裡,解方就在數據裡』 【We Need You to …】 1.應用服務開發與維護 • 開發與維護數據應用服務(API),確保業務服務穩定運行。 • 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 • 建立與管理 CI/CD Pipeline,提升開發與部署效率。 • 持續監控服務效能,進行問題排查、升級與最佳化。 【About You】 • 熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 • 熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 • 了解容器化技術(Docker、Kubernetes)。 • 了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【Plus】 • 具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 • 具備 Terraform 或其他 IaC 工具經驗。 • 具備 DevOps / Cloud Engineer 相關工作經驗。 • 具備網路/資訊安全管理經驗。 • 具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/22
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
10/14
維曙智能科技有限公司電腦軟體服務業
台北市中正區經歷不拘專科以上
維曙智能為創新AI應用開發商,具有全球市場商業化能力。公司有完整的創新孵化管線,包含從想法到技術與市場開發的完整配套流程,讓您將知識落實在各種實際場域中。如果您對以創新解決現實世界問題充滿熱忱,希望了解AI在產業的實務運作以及現實應用有興趣,這裡會是您大展身手的地方。歡迎加入我們。 您將成為我們 AI 解決方案研發的核心成員。作為數位雙生AI工程師,您將負責在 Sim2Real 平台(如 NVIDIA Isaac Sim、ROS/Gazebo)上測試並驗證 AI 模型與機器手臂系統的整合,並將模擬中成功運行的控制程式部署至實體機台。和不同團隊合作(AI團隊,硬體團隊)優化與測試模型與控制演算法,完成跨部門專案整合與系統調校。 【主要工作內容】 • 使用 NVIDIA Omniverse 平台進行機器手臂建模、運動規劃(正/逆向運動學、避障與優化)及控制程式開發 • 建置與優化模擬環境與數位孿生場景,確保模擬與實體機台行為一致 • 與AI研發團隊合作,將機器手臂模擬系統與公司 SDG(Synthetic Data Generation) 技術串接,用於資料生成與 AI 模型訓練 • 撰寫、維護與優化控制演算法及相關模組,提升系統穩定性與效能 • 與硬體團隊協作,將模擬成果部署至實體機台並進行驗證 • 參與跨部門專案,支持產品研發與驗證流程的自動化。 維曙機器視覺產品服務請參閱: https://www.vizuro.com/corvus
應徵
10/21
台北市中山區2年以上大學
【工作內容】 1. 將概念性想法設計規劃為可執行的解決方案 2. 大數據專案的規劃,數據接入、清洗、建模與可視化的設計 3. 與機器學習工程師、雲端架構師、PM密切合作共同合作完成專案,供客戶高質量的雲端數據相關服務 4. 負責協助客戶整合、設計、部署大數據處理流程與平臺 5. 探索雲端服務組合的可能性,創造全新的可能性 【必備技能/條件】 1. 3 年以上資料排程、處理、清洗、分析的實務經驗 2. 2 年以上資料處理常用的 Open Source 工具的實務經驗,eg. Spark, Airflow, hadoop 3. 2 年以上Python / Java 程式語言開發相關工作經驗 4. 擅長解決問題、除錯、故障排除,提出問題解決方案 【加分條件】 1. 具備BigQueryRDBMSNoSQL使用經驗 2. 具備爬蟲相關經驗 3. 熟悉 Restful API
應徵
10/22
文境資科股份有限公司專門設計相關業
台北市大安區1年以上大學以上
Data Engineer/ 資料工程師 1.資料稽核(Data Auditing)、收集(Data Collection)、整合作業(Data Integration) 等資料分析前處理作業 2.有MS SQL server、SSIS、SSRS、SSAS ,或其他ETL工作經驗尤佳 3.具Stored Procedure、Python、.NET、Linux Shell 撰寫經驗 4.對醫療資料分析充滿熱情並具備程式開發之熱忱與積極性 5.以公衛、醫管、資管與統計相關科系優先
應徵
10/21
悠遊卡股份有限公司其他金融及輔助業
台北市南港區3年以上大學以上
1.需求釐清: 依內部需求進行資料模型分析,如資料表增減、欄位增減、規則轉換、調整分析結果,並產出分析文件 2.設定規則: 依分析文件撰寫SQL語法及ETL設定處理,並進行資料驗證 3.平台維運: 日常監控及定期檢查 4.平台串接: 平台與應用系統串接 5.交辦事項
應徵
10/22
天下雜誌股份有限公司雜誌/期刊出版業
台北市中山區2年以上大學以上
【職責】 1. 參與設計與維護數據基礎設施和數據管線 (Data pipeline - ETL/ELT) ,以支援關鍵業務應用 (如MarTech、AdTech、CDP、CRM、推薦系統、標籤等) 與數據應用需求 2. 協助進行數據創新應用和架構研究,特別是支援 AI/ML 專案的數據準備與供應,並參與新興數據技術的研究與導入 (如 Gen AI 相關數據集技術或 Data Lakehouse) 3. 協助執行數據品質、治理與安全相關任務,確保數據的準確性、完整性與合規性 4. 具備獨立執行數據工程任務的能力,負責從概念發想到最終部署的完整流程。同時,與團隊成員緊密協作,共同完成專案,以確保最終成果符合部門的發展目標與方向。 5. 與數據分析師、專案經理、業務團隊及 IT 部門協作, 理解業務需求並協助轉化為技術性數據解決方案 6. 積極學習新技術,並能與團隊成員有效協作、分享知識 【工作內容】 1. 開發、維護和優化複雜的批次和即時數據管線,從多個異質數據源 (包括但不限於 MarTech、AdTech、CDP、CRM、Events log等) 擷取、轉換與載入數據 2. 參與建構與維護基於雲端的數據儲存與處理架構,如數據湖 (Data Lake) 或數據湖倉 (Data Lakehouse),確保系統穩定運行 3. 建構與維護 AI/ML 應用所需的數據集,包括特徵工程數據管線,並研究與實現為 LLM 應用準備數據的機制 (如 MCP 或 RAG 相關數據流程) 4. 參與設計與開發數據服務層 (Data Serving),提供數據 API 或串流數據供下游應用使用 5. 優化現有數據系統和查詢效能,進行效能調校,降低數據處理延遲,提升系統效率 6. 操作與維護自動化的數據流程管理機制,使用 Airflow 等工具進行任務排程與監控 7. 協助建立與維護自動化測試、監控和警報機制,以確保數據平台穩定運行 8. 執行數據治理框架下的具體任務,例如追蹤數據血緣 (Data Lineage),並確保數據處理符合相關法規 9 . 持續學習新興數據技術和行業趨勢 (如 Data Lakehouse, Gen AI 相關技術),並與團隊分享 【技能要求】 1. 具備數據工程相關工作經驗 2 年以上 2. 熟悉 Python 和 SQL,具備良好的程式撰寫能力與數據庫操作能力 3. 具備 Data Orchestration 的實務經驗,熟悉 Airflow 的工作流開發與維護 4. 熟悉至少一個主流雲端平台 (GCP 優先考慮),並對其數據相關服務具備使用經驗 (例如:GCP 的 BigQuery, Cloud Storage, Dataflow, Pub/Sub, Cloud Run, Vertex AI, Composer等) 5. 熟悉數據倉儲 (Data Lakehouse) 或數據湖 (Data Lake) 的概念,並具備協助建構或維護的經驗 6. 熟悉 Git 版本控制系統和 CI/CD 流程 7. 理解數據安全原則、存取控制、數據加密和數據治理概念 【部門介紹】 天下雜誌集團的數據工程師,是數位創新團隊不可或缺的數據架構基石,肩負著以數據賦能的核心使命。此職位的核心職責在於設計、建構並維護高效、穩健的數據基礎設施與數據管線,透過確保數據品質與可用性,以支援推薦系統、CRM、AI/ML 等關鍵應用。我們將與數據工程師攜手,共同推動內容及商務營運目標,將數據驅動的文化深植於日常工作中。 集團旗下擁有《天下》、《康健》、《天下學習》、《親子天下》等知名品牌,涵蓋財經管理、健康生活、工作職場與親子教育等領域。對數據團隊而言,我們就像多家公司合體運作,每個品牌都有獨特的商業模式與需求。從電商、內容訂閱到線上教育的數據應用,你都將有機會深入參與,發揮專業價值,探索多元場景。
應徵
10/23
台北市松山區1年以上大學
COMMEET (https://commeet.co) 擴大徵才,歡迎有熱情之新夥伴加入我們的行列 [工作內容] 1 整理、標記數據,以確保數據的準確性與可靠性 2 建立/維護/優化資料處理流程與架構(data pipeline) 3 跟相關的stakeholder合作,解決並優化他們的數據需求 4 其它主管交辦事項。 [必要條件] • 從業人員恪守客戶個資保護敏感度及尊重客戶資料隱密性 • 熟悉 ML/DL • 熟悉 python 語言與相關資料庫 (csv、postgres、redis、excel) • 熟悉圖表可視化(Visualization),以及圖表分析能力 • 熟悉 git 版本控制 • 如線上初試通過者,將安排線下複試,複試安排 leetcode [加分項目] • 具有 OCR 處理數據經驗 • 有kaggle 等競賽平台經驗 • 有新創公司經驗 • 有FinTech 或 ERP/CRM 經驗 [人格特質] • 獨立作業的能力 • 細心負責任 • 勇於溝通,樂於表達自己的想法 • 喜歡主動學習新技術,願意與團隊研究及分享技術新知
應徵
10/22
轅睿科技有限公司電腦軟體服務業
台北市大安區1年以上碩士以上
1.研究與設計:研究如何透過 LLM 與 MCP(Model Context Protocol)將滲透測試(Penetration Testing)流程自動化。 2.效能驗證:設計 benchmark 與測試案例,驗證 AI Agent 的正確率、覆蓋率與實用性。 3.跨領域合作:與滲透測試工程師合作,持續優化 AI Agent 的測試策略與知識庫。
應徵
10/21
台北市松山區2年以上專科以上
我們正在尋找一位熱情且富有才華的資料工程師,加入我們的團隊,協助解決廣告投遞的資料內容。在這裡有大量的數據供你發揮所長,將學過的知識及方法應用到實務的工作上。 我們希望你具備以下三大特質: 對資料工程領域有強烈興趣和熱情 。 重視團隊合作,具備良好的溝通能力 。 具有自我學習能力,能夠快速適應新技術。 職責: 資料取得 - 串接內外部廣告資料,必要時設計和構建資料倉儲系統。 資料清洗 - 進行資料格式的清理、轉換和處理,確保資料品質。 資料分析 - 運用統計和機器學習技術進行深入分析,提供有價值的洞察。 資料視覺化 - 若有需要,根據分析的數據提供統計圖表或報告。 程序開發 - 根據業務需求設計、開發和優化資料處理流程和模型。 系統維護:持續監控、維護和優化現有的資料系統和流程。 具備 2 年以上相關領域的開發經驗 ◆ 精通 Python 程式設計 ◆ 熟悉 Git 版本控制 ◆ 具備以下至少一種資料庫使用經驗:SQL、NoSQL、Redis、BigQuery ◆ 基本 Linux 操作概念、Shell script ◆ 學習新工具的能力、樂於學習的精神。 ◆ 重視程式可讀性、效能、安全性、可靠度。
應徵
10/13
創代科技股份有限公司工商顧問服務業
台北市中山區1年以上碩士以上
我們正在尋找一位 Mid-Level 的數據工程師 (Data Engineer),主要負責 資料庫建置、ETL 流程設計與開發、數據處理與分析。目前創代科技曾執行過的專案包含了 大型語言模型產品開發(涵蓋雲端、地端、雲地混合方案)、深度學習開發(產品洞察與行為預測、時間序列預測、路線最佳化)、機器學習應用(各產業客戶的資料探勘與分析)、數據中台建置(含資料正規化、ETL 建置、導入 dbt、snowflake)!我們現在手上有各種類型的專案等著你來玩! 為什麼選擇創代科技? 創代科技是一家提供數據科學顧問服務的公司,業務涵蓋 零售、交通、物流、航運、電信、能源、犯罪、災防 等多元領域,並持續拓展至其他前沿產業。在這裡,你將接觸到多樣化的數據場景,包括乾淨度各異的資料與高度客製化的架構設計,讓你在解決各種挑戰中快速成長。 如果你熱愛學習新技術、探索創新解決方案,那麼在創代擔任數據工程師,將是你的最佳選擇。 ✅ 【職責內容】 1. 資料庫設計:熟悉資料庫概念,協助建置與維護資料倉儲、資料湖跟資料中臺。 2. ETL 或 ELT 流程開發:協助客戶建立基於地端或是雲端的資料流架構,整合多元數據來源(結構化與非結構化),構建高效數據處理系統,確保資料一致性與完整性。 3. 數據處理與協作:與資料科學家、資料分析師及後端工程師協作,處理 Data Pipeline 建置及數據收集、探勘與轉換。 4. 協助客戶工具導入:協助客戶翻新原有 Pipeline,並導入 dbt、snowflake等。 ✅ 【我們期待你具備】 1. 學歷背景:具備碩士學位, 資訊工程、資訊管理、資料科學、數學、統計、電機相關領域加分。 2. 專業技能: - 熟悉數據處理與分析,具備 ETL / ELT 流程開發與維護經驗。 - 熟悉 關聯式資料庫(如 PostgreSQL)及 圖形資料庫(如 Neo4j),擁有資料倉儲建置與操作經驗。 - 熟悉 Linux 環境,並具備版本控制工具(如 Git)使用經驗。 - 熟悉 容器化技術(如 Docker、Kubernetes),了解其生產環境運行與管理。 - 具備 Airflow 排程管理及模型部署經驗。 ✅ 【加分條件】 - 雲端服務:熟悉 GCP、AWS、Azure,具備跨雲架構整合及服務部署能力。 - 分散式系統:有 Hadoop、Spark 開發經驗者尤佳。 - 資料庫工具:具備 dbt 或是 snowflake 導入或是使用經驗。 - DevOps 經驗:具備 CI/CD 自動化部署實作經驗。 - BI 工具:熟悉 Tableau、Looker、Power BI。 - 演算法基礎:理解機器學習、深度學習背後邏輯或是應用經驗。 ✅ 【薪資待遇】 - 面議,保障年薪 14 個月。 ✅ 【公司福利】 - 彈性上下班時間、彈性居家上班福利。 - 每月享有職員不扣薪福利假、生日當月再多一天生日假。 - 不定期員工聚餐、午餐、下午茶、出遊團康活動等。 - 公司零食區、冰箱飲料、咖啡櫃永遠補給充足,讓每位新進夥伴都保證先胖五公斤! - 保障年終獎金 2 個月,其他績效獎金還可以靠自己爭取,亦提供結婚、生育等各項禮金。 - 電腦設備:公司提供工作機,亦可自備設備並領取每月電腦補助費。 - 每年提供教育訓練補助。 - 提供定期健康檢查補助。 - 每年定期進行績效考核,讓職員的升遷與薪資調整更有依據與保障。 ✅ 此職缺定位為 Mid-Level,尋找 1 - 3 年經驗的人選
應徵
10/22
台北市信義區3年以上大學
誠品致力於打造結合文化、閱讀與生活的全通路生態圈,透過數位創新提升顧客體驗,實現線上與線下服務的無縫整合。 資訊暨商業應用創新處(ICI)負責誠品各類資訊系統的管理與維運,並專注於全通路服務的技術開發、數據分析、雲端技術與 AI 應用,致力於打造創新高效的數位解決方案。我們的目標是實現數據驅動決策、自動化流程與跨通路無縫連結,推動企業數位轉型。如果您對資訊技術充滿熱情,誠心邀請您投遞此職務,加入 ICI,與我們一同解鎖潛力、編碼未來,穩健前行。 【工作內容】 1.Looker Core維護與開發: 建置、維護及優化Looker資料模型與報表,提供各部門精準的決策數據。 設計並開發LookML,實現複雜的數據分析需求。 負責Looker系統的權限控管與使用者管理。 2.BigQuery數據維護與優化: 使用Composer排程,自動化數據處理流程,確保數據品質與時效性。 利用Dataform開發、管理及維護數據管道,提升數據處理效率。 進行BigQuery資料結構優化,提升查詢效能。 3.AI工具導入與應用: 參與AI工具在BigQuery與Looker Core上的導入與應用,探索AI在數據分析領域的潛力。 透過AI輔助工具,提升工作效率,並開發創新的數據分析解決方案。
應徵
10/17
群越廣告科技有限公司電腦軟體服務業
台北市松山區3年以上大學以上
我們尋找一位資料敏銳度高、擁有穩健工程實作力的資料工程師,加入我們的遊戲推薦系統開發團隊! 這個職位非常適合熟悉 資料處理流程、具備 API 設計與部署經驗、懂得 推薦模型訓練實務,並熱衷於將 AI 技術應用在真實產品場景中的人才。 你將參與我們打造高效能推薦系統的核心挑戰之一:處理高頻率、多次存取的推薦查詢問題(Multiple Access / Frequent Access Patterns)。在實務上,推薦系統需支援大量使用者在極短時間內反覆觸發推薦請求(如首頁刷新、排行榜滑動、活動推薦等),對於資料快取策略、查詢優化、線上/離線計算資源分配都提出極高要求。 我們期望你能透過設計 穩定高效的資料管線與特徵服務(Feature Store),結合良好的 API 封裝,確保推薦服務在多次存取場景下依然具備良好延遲控制與回應品質,讓系統在真實流量下穩健運作、持續為玩家提供個性化、即時的推薦體驗。 線上視訊筆試,請 share screen 解題: Python 操作 SQL 語法(PyMySQL) Flask API 封裝與邏輯設計 Numpy 矩陣操作與轉換 Multithreading 多執行緒概念與應用 PyTorch 假碼撰寫與推薦演算法說明 必備條件(務必具備): Python 資料處理能力強,熟悉生態系統:pandas、numpy、pyMysql、SQLAlchemy 熟練 SQL 查詢與資料倉儲操作,具備處理大型資料集的經驗 實際操作過 Flask API 設計與服務包裝 理解推薦系統與分類/排序模型的運作,具備實作經驗 熟悉模型部署工具,例如 Flask / FastAPI、joblib、ONNX、MLflow 等 具備跨部門溝通能力與資料產品思維,能獨立拆解與解決資料問題 加分條件(非必要,但會加分) 使用過雲端資料平台:BigQuery、Snowflake、Redshift 有推薦模型訓練與優化經驗:如 DNN-based 矩陣分解、Pairwise Ranking、Embedding 模型 熟悉 強化學習、Bandit Algorithm 在推薦系統中的應用 曾設計過 AB test 並執行評估分析 實作過 Feature Store、推薦 pipeline 框架設計經驗
應徵
10/23
台北市大同區經歷不拘大學以上
【工作內容】 1.協助客戶安裝與部署 Pentaho 產品,包括 Pentaho Data Integration(PDI)、Pentaho Server 和 Pentaho Report Designer。 2.使用 ETL 工具(Pentaho PDI、Talend、Informatica、Microsoft SSIS 等)進行數據抽取、轉換與載入,確保資料正確性與完整性。 3.熟悉 Python 或 Java 等程式語言,能撰寫 ETL 腳本與自動化流程。 4.設計並維護 Data Model,建立高效、可擴充的數據架構。 5.開發與維護 Data Warehouse,確保數據一致性、完整性與可靠性。 6.熟悉 SQL 與常見資料庫(RDBMS / NoSQL),能分析並解決複雜的資料問題。 7.協助客戶安裝與配置 OpenMetadata,並整合至既有數據管理環境。 8.使用 OpenMetadata 平台建立與維護數據資產目錄,協助定義數據標準、數據政策與分類。 9.整合 OpenMetadata 與其他數據管理工具(ETL、資料庫、BI 工具等)。 10.撰寫專案與技術文件,包括安裝手冊、教育訓練教材與客戶需求文件。 11.參與客戶需求訪談,協助規劃與導入完整的數據平台解決方案。 12.其他主管交辦事項。 【必要條件】 1.具備 SQL 語法與資料結構基礎,理解 Data Flow 並能應用於實務案例。 2.熟悉 ETL 工具操作與數據處理邏輯。 3.至少熟悉一種程式語言(Python / Java),能進行自動化與流程開發。 4.理解 Data Model 設計理論並具備實務經驗。 5.良好的溝通能力,能與客戶合作並釐清需求。 6.具備獨立作業與問題解決能力,能快速學習新技術。 【加分條件】 熟悉 Pentaho PDI 或 OpenMetadata 平台。 具備 Data Warehouse、資料治理、資料湖泊等相關經驗。 有報表系統(如 Pentaho Report Designer、Power BI、Tableau)應用經驗。 瞭解雲端數據平台(如 AWS Redshift、GCP BigQuery、Snowflake)尤佳。 具備教育訓練、技術文件撰寫與客戶導入顧問經驗。 【發展方向】 短期(1–2 年):熟悉 Pentaho / OpenMetadata / DWH 平台導入,能獨立執行專案模組。 中期(2–4 年):成為能夠進行跨系統數據整合與數據治理規劃的顧問。 長期(5 年以上):成長為資料架構師 / 雲端數據平台專家,能帶領團隊規劃企業級數據平台。
應徵
10/22
大數據股份有限公司其它軟體及網路相關業
台北市中山區3年以上大學以上
本公司為專業社群資料分析廠商,主要產品有《KEYPO大數據關鍵引擎》,透過深度學習在巨量社群資料中洞察網路口碑。本職務需熟悉web crawling techniques, automation, data storage, and data pipelines 【工作內容】 1.設計AI機器人(web crawler)架構,提升抓取的效率和品質 2.維護AI機器人(web crawler)可靠度與可用率 3.設計/優化資料管線與儲存架構 4.參與ETL設計與實作 5.RESTful API開發與維護 6.依能力調整Job Title(資深數據工程師/數據工程師) 【必要技能】 1.熟練運用AI工具進行開發上的協作 2.熟悉Python語法 3.充分了解HTML結構,能解析網頁交換資料的順序步驟  4.熟悉Git 5.熟悉Linux, Docker 6.熟悉web crawler套件與框架(如Scrapy、Puppeteer、Selenium) 【加分條件】 1.自動化測試:瞭解單元測試、整合測試或其他測試框架。 2.CI/CD 流程:在生產環境中曾使用 Jenkins、GitLab CI 等工具實現持續整合 與部署。 3.容器調度:熟悉 Docker Swarm、Kubernetes 等技術,建構高可用的微服務架構。 4.敏捷開發經驗:具備 Agile / Scrum 開發流程的實務經驗。 5.程式重構 / 大型專案架構設計:具備系統化思考與模組化拆分的能力。 6.Message Queue:如 RabbitMQ、Kafka等的使用經驗。
應徵
10/16
域動行銷股份有限公司廣告行銷公關業
台北市松山區1年以上大學以上
公司介紹: 域動行銷是中華電信集團轉投資公司之一,成立於2009年,致力於提供創新的數位廣告解決方案,當中包含廣告系統DSP、SSP、CDP、混血數據及廣告聯播網等,我們通過創新的行銷技術解決方案來推動廣告和數據分析的發展,同時專注於行銷科技領域,提供前瞻性的觀點,引領數據行銷的未來。 組織介紹: 域動Data Team是由一群對『數據分析』及『AI應用』具有研究及開發熱誠的成員所組成。在這裡你可以接觸到大量即時的使用者行為資料,並將資料科學模型應用於: 『網路廣告投放優化』 『網路用戶辨識』 『消費者行為分析』 我們更致力於尋找優化方案,改善產品體驗設計及為商業決策提供數據支持,提升效率和價值。我們鼓勵組員多方嘗試、思考、展現天馬行空的創意,且能清楚闡述想法,付諸實踐。 【Job Description】 • 須熟悉python, 尤其是對pyspark操作有經驗 • 具備優化資料流和處理效率的專業知識,以及處理每日一億筆記錄的資料吞吐量的經驗 • AWS、GCP 等雲端平台的實務經驗 • 熟練開發強大的data pipeline,包括資料收集和 ETL(擷取、轉換、載入)流程 • 具備設計和實施資料平台各種元件的經驗,包括資料攝取、儲存、資料倉儲、資料編排 • 持續整合和持續部署(CI/CD)流程的經驗 【Qualifications】 1. 熟悉 ML 相關知識 2. 熟悉Python程式語言,以pyspark模組為主 3. 熟悉Linux 系統操作 4. 熟悉資料庫程式語言 SQL 【Preferred Qualifications】 1.具備機器學習平台經驗,例如 KubeFlow、MLflow 或 Vertex AI 2.具備API設計與實作經驗 3.具備使用 AWS Kinesis、Spark Streaming 等串流工具的經驗 4. 具有數位廣告相關經驗 6. 具有分散式運算的相關知識,如 Spark、Hadoop、Hive 7. 有使用過GCP, AWS 等雲端服務經驗佳 【加分項目】 熟悉scale, JAVA 熟悉資料湖相關技術 統計學專長
應徵
10/23
台北市中山區1年以上大學以上
【關於我們】 我們是一家不斷追求創新的領先旅行社。在數位時代,我們深信「數據」是引領我們航向未來的羅盤。我們致力於將龐雜的旅遊數據——從航班動態、飯店預訂到客戶行為軌跡——轉化為驅動決策的洞見與創造個人化體驗的魔法。為此,我們正在尋找一位數據領域的築夢師,與我們一同打造堅實、智慧的數據基石。 【這個角色為何關鍵?】 您將是我們數據驅動策略的核心架構師。您所建構的每一條 Data Pipeline,都將成為公司營運的動脈,穩定地輸送著決策所需的血液。您參與的每一個機器學習專案,都可能催生出下一個顛覆市場的旅遊產品或服務。您的工作將直接賦能市場、產品、營運等團隊,讓我們的決策更精準,服務更貼心。 工作內容 (Key Responsibilities) 1. 數據管道 (Data Pipeline) 的設計與開發: 主導使用 Apache Airflow 設計、開發、部署與維護可擴展、高效率的自動化數據工作流 (DAGs)。 負責從多元數據源(包含內部資料庫、第三方旅遊供應商 API、網站使用者行為 Log、行銷平台數據等)進行數據提取 (Ingestion)、轉換 (Transformation) 與載入 (ETL/ELT)。 確保數據的品質、完整性與一致性,並建立完善的監控與警報機制。 2. 專案性機器學習 (ML) 開發與整合: 跨部門合作,挖掘具商業價值的機器學習應用場景。 負責機器學習專案中的數據前處理、特徵工程 (Feature Engineering)、模型訓練與驗證。 協助將訓練好的模型部署到生產環境,並與現有系統整合。 3. 數據基礎設施與架構優化: 參與數據倉儲 (Data Warehouse) 或數據湖 (Data Lake) 的架構設計與效能調校。 與後端工程師協作,確保數據收集與儲存的效率與規範。 探索並導入新興的數據技術與工具,持續提升團隊的數據處理能力。
應徵
10/23
凌越生醫股份有限公司生化科技研發業
台北市內湖區經歷不拘專科
1. 負責網站(官網、電商網站)編碼,外鏈建置工作,能夠快速為網站獲取高權重鏈接;提高網站整體流量。 2. 瞭解SEO原理和實施方法,如關鍵字優化、標籤優化、標題優化、關鍵字排名優化等。 3. 監測分析公司與競業網站流量,排名收錄等數據,並優化網站整體排名。 4. Google Ads平台操作:設定廣告活動、彙整廣告數據、撰寫報表分析、優化文案的策略。 5. 分析與追蹤 Facebook、Instagram、LINE、Google(GA4、Ads、Search Console)等數位媒體平台數據,評估貼文互動、廣告投放、觸及率、點擊率與轉換率,並提出優化與廣告預算調整建議。 6. 利用 Google Analytics 等工具追蹤官網訪客行為、跳出率、轉換路徑與銷售績效,分析網站活動成效與回購率。 7.CRM系統維運(活動短網址、串接商機、成交率分析等)
應徵
10/17
新北市中和區2年以上碩士以上
【職位簡介】 作為東森得易購大數據中心的數據工程師,您將參與全通路電商、會員經濟、生醫保健、寵物與高端生活等關鍵業務的數據基礎建設,負責資料的整合、清洗、建模與串接。協助構建跨 TV、EC、OB/IB Call Center、Regal SPA、寵物雲、民調雲的「OneID資料湖」與 AI 大腦基礎平台,推動集團邁向 AI 自動化與千人千面精準行銷。 【工作內容】 • 建置並維護企業級數據平台(Data Warehouse / Data Lake / Microsoft Fabric / AWS S3 等) • 設計並開發 ETL/ELT 流程,處理會員、交易、商品、節目、行銷等核心資料 • 串接內部 ERP、CRM、CDP、API 或外部數據源,提升數據整合效率與一致性 • 與數據科學家、商業分析師合作,優化資料模型與查詢效能 • 支援 Power BI / Copilot BI / Tableau 等商業儀表板背後的資料管線與維運 • 管理資料版本與品質監控,確保資料可信、準確與即時
應徵
10/23
台北市松山區1年以上高中
【工作內容】 與團隊協作,共同完成各客戶的資料流開發,同時協助團隊梳理與排除運作中的 data pipeline 產生的各種突發程式狀況,並完成記錄與建檔,您應可獨立開發系統串接、大資料清整。在工作過程中,您會與工程團隊、設計團隊、產品團隊溝通協作,完成規劃之項目與習慣自主進度掌控,例如資料串接、資料爬取、數據報告等。 【我們希望你】 一定要對開發工作具有熱情與自我學習不斷精進的渴望,遇到問題時,能獨立查找與判斷解決方案的可行性,若遇到無法解決的問題,也懂得如何清楚論途與提問,樂於與同仁們分享技術新知、提升自我能力,當挑戰尚不熟悉的工作內容時,充滿戰鬥力。 【職務需求】 熟悉 Python, SQL 熟悉 dbt, Airflow (Google Cloud Composer & MWAA) 熟悉 Star Schema / Snowflake Schema 設計 熟悉 Modern Data Stack 熟悉 PostgreSQL, MySQL, MongoDB 任一一種資料庫 【加分項】 熟悉 BigQuery or Redshift 熟悉 Glue or Dataflow 熟悉 Lambda or Cloud Run 【面試流程】 [實體] 一面
➀ 公司文化與價值觀討論
 ➁ 專案經歷與履歷討論
 ➂ 公司介紹(商業模式、團隊組成、工作內容)
 ➃ 公司相關問題 Q & A [線上] 二面 
 ➀ 線上題目,線上題目,用 HackMD 進行,內容包含 SQL、Pandas、ETL 基礎概念 ➁ 情境題(模擬完整商業需求)
應徵