104工作快找APP

面試通知不漏接

立即安裝APP

「AI Data Engineer(AI數據工程師)」的相似工作

統一資訊股份有限公司
共500筆
10/20
台北市大安區1年以上大學以上
【About Us】 歡迎加入「國泰健康管理」!我們是一個充滿活力、追求創新、以數據和科技驅動健康管理變革的團隊!在這裡,你將與一群熱愛科技、關心健康、充滿創造力的夥伴並肩作戰,共同探索智能健康的無限可能。 我們相信「想要健康不能靠感覺」,而是基於精準數據的科學管理。 我們的使命是:整合數位、數據和 IT 技術,打造個人化的健康管理解決方案,讓人人都能擁有健康自信的人生,實踐『健康就在生活裡,解方就在數據裡』 【We Need You to …】 1.應用服務開發與維護 • 開發與維護數據應用服務(API),確保業務服務穩定運行。 • 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 • 建立與管理 CI/CD Pipeline,提升開發與部署效率。 • 持續監控服務效能,進行問題排查、升級與最佳化。 【About You】 • 熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 • 熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 • 了解容器化技術(Docker、Kubernetes)。 • 了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【Plus】 • 具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 • 具備 Terraform 或其他 IaC 工具經驗。 • 具備 DevOps / Cloud Engineer 相關工作經驗。 • 具備網路/資訊安全管理經驗。 • 具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/14
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
10/15
轅睿科技有限公司電腦軟體服務業
台北市大安區1年以上碩士以上
1.研究與設計:研究如何透過 LLM 與 MCP(Model Context Protocol)將滲透測試(Penetration Testing)流程自動化。 2.效能驗證:設計 benchmark 與測試案例,驗證 AI Agent 的正確率、覆蓋率與實用性。 3.跨領域合作:與滲透測試工程師合作,持續優化 AI Agent 的測試策略與知識庫。
應徵
10/16
台北市松山區1年以上大學
COMMEET (https://commeet.co) 擴大徵才,歡迎有熱情之新夥伴加入我們的行列 [工作內容] 1 整理、標記數據,以確保數據的準確性與可靠性 2 建立/維護/優化資料處理流程與架構(data pipeline) 3 跟相關的stakeholder合作,解決並優化他們的數據需求 4 其它主管交辦事項。 [必要條件] • 從業人員恪守客戶個資保護敏感度及尊重客戶資料隱密性 • 熟悉 ML/DL • 熟悉 python 語言與相關資料庫 (csv、postgres、redis、excel) • 熟悉圖表可視化(Visualization),以及圖表分析能力 • 熟悉 git 版本控制 • 如線上初試通過者,將安排線下複試,複試安排 leetcode [加分項目] • 具有 OCR 處理數據經驗 • 有kaggle 等競賽平台經驗 • 有新創公司經驗 • 有FinTech 或 ERP/CRM 經驗 [人格特質] • 獨立作業的能力 • 細心負責任 • 勇於溝通,樂於表達自己的想法 • 喜歡主動學習新技術,願意與團隊研究及分享技術新知
應徵
10/17
群越廣告科技有限公司電腦軟體服務業
台北市松山區3年以上大學以上
我們尋找一位資料敏銳度高、擁有穩健工程實作力的資料工程師,加入我們的遊戲推薦系統開發團隊! 這個職位非常適合熟悉 資料處理流程、具備 API 設計與部署經驗、懂得 推薦模型訓練實務,並熱衷於將 AI 技術應用在真實產品場景中的人才。 你將參與我們打造高效能推薦系統的核心挑戰之一:處理高頻率、多次存取的推薦查詢問題(Multiple Access / Frequent Access Patterns)。在實務上,推薦系統需支援大量使用者在極短時間內反覆觸發推薦請求(如首頁刷新、排行榜滑動、活動推薦等),對於資料快取策略、查詢優化、線上/離線計算資源分配都提出極高要求。 我們期望你能透過設計 穩定高效的資料管線與特徵服務(Feature Store),結合良好的 API 封裝,確保推薦服務在多次存取場景下依然具備良好延遲控制與回應品質,讓系統在真實流量下穩健運作、持續為玩家提供個性化、即時的推薦體驗。 線上視訊筆試,請 share screen 解題: Python 操作 SQL 語法(PyMySQL) Flask API 封裝與邏輯設計 Numpy 矩陣操作與轉換 Multithreading 多執行緒概念與應用 PyTorch 假碼撰寫與推薦演算法說明 必備條件(務必具備): Python 資料處理能力強,熟悉生態系統:pandas、numpy、pyMysql、SQLAlchemy 熟練 SQL 查詢與資料倉儲操作,具備處理大型資料集的經驗 實際操作過 Flask API 設計與服務包裝 理解推薦系統與分類/排序模型的運作,具備實作經驗 熟悉模型部署工具,例如 Flask / FastAPI、joblib、ONNX、MLflow 等 具備跨部門溝通能力與資料產品思維,能獨立拆解與解決資料問題 加分條件(非必要,但會加分) 使用過雲端資料平台:BigQuery、Snowflake、Redshift 有推薦模型訓練與優化經驗:如 DNN-based 矩陣分解、Pairwise Ranking、Embedding 模型 熟悉 強化學習、Bandit Algorithm 在推薦系統中的應用 曾設計過 AB test 並執行評估分析 實作過 Feature Store、推薦 pipeline 框架設計經驗
應徵
10/14
維曙智能科技有限公司電腦軟體服務業
台北市中正區經歷不拘專科以上
維曙智能為創新AI應用開發商,具有全球市場商業化能力。公司有完整的創新孵化管線,包含從想法到技術與市場開發的完整配套流程,讓您將知識落實在各種實際場域中。如果您對以創新解決現實世界問題充滿熱忱,希望了解AI在產業的實務運作以及現實應用有興趣,這裡會是您大展身手的地方。歡迎加入我們。 您將成為我們 AI 解決方案研發的核心成員。作為數位雙生AI工程師,您將負責在 Sim2Real 平台(如 NVIDIA Isaac Sim、ROS/Gazebo)上測試並驗證 AI 模型與機器手臂系統的整合,並將模擬中成功運行的控制程式部署至實體機台。和不同團隊合作(AI團隊,硬體團隊)優化與測試模型與控制演算法,完成跨部門專案整合與系統調校。 【主要工作內容】 • 使用 NVIDIA Omniverse 平台進行機器手臂建模、運動規劃(正/逆向運動學、避障與優化)及控制程式開發 • 建置與優化模擬環境與數位孿生場景,確保模擬與實體機台行為一致 • 與AI研發團隊合作,將機器手臂模擬系統與公司 SDG(Synthetic Data Generation) 技術串接,用於資料生成與 AI 模型訓練 • 撰寫、維護與優化控制演算法及相關模組,提升系統穩定性與效能 • 與硬體團隊協作,將模擬成果部署至實體機台並進行驗證 • 參與跨部門專案,支持產品研發與驗證流程的自動化。 維曙機器視覺產品服務請參閱: https://www.vizuro.com/corvus
應徵
10/14
大數據股份有限公司其它軟體及網路相關業
台北市中山區3年以上大學以上
本公司為專業社群資料分析廠商,主要產品有《KEYPO大數據關鍵引擎》,透過深度學習在巨量社群資料中洞察網路口碑。本職務需熟悉web crawling techniques, automation, data storage, and data pipelines 【工作內容】 1.設計AI機器人(web crawler)架構,提升抓取的效率和品質 2.維護AI機器人(web crawler)可靠度與可用率 3.設計/優化資料管線與儲存架構 4.參與ETL設計與實作 5.RESTful API開發與維護 6.依能力調整Job Title(資深數據工程師/數據工程師) 【必要技能】 1.熟練運用AI工具進行開發上的協作 2.熟悉Python語法 3.充分了解HTML結構,能解析網頁交換資料的順序步驟  4.熟悉Git 5.熟悉Linux, Docker 6.熟悉web crawler套件與框架(如Scrapy、Puppeteer、Selenium) 【加分條件】 1.自動化測試:瞭解單元測試、整合測試或其他測試框架。 2.CI/CD 流程:在生產環境中曾使用 Jenkins、GitLab CI 等工具實現持續整合 與部署。 3.容器調度:熟悉 Docker Swarm、Kubernetes 等技術,建構高可用的微服務架構。 4.敏捷開發經驗:具備 Agile / Scrum 開發流程的實務經驗。 5.程式重構 / 大型專案架構設計:具備系統化思考與模組化拆分的能力。 6.Message Queue:如 RabbitMQ、Kafka等的使用經驗。
應徵
10/15
天下雜誌股份有限公司雜誌/期刊出版業
台北市中山區2年以上大學以上
【職責】 1. 參與設計與維護數據基礎設施和數據管線 (Data pipeline - ETL/ELT) ,以支援關鍵業務應用 (如MarTech、AdTech、CDP、CRM、推薦系統、標籤等) 與數據應用需求 2. 協助進行數據創新應用和架構研究,特別是支援 AI/ML 專案的數據準備與供應,並參與新興數據技術的研究與導入 (如 Gen AI 相關數據集技術或 Data Lakehouse) 3. 協助執行數據品質、治理與安全相關任務,確保數據的準確性、完整性與合規性 4. 具備獨立執行數據工程任務的能力,負責從概念發想到最終部署的完整流程。同時,與團隊成員緊密協作,共同完成專案,以確保最終成果符合部門的發展目標與方向。 5. 與數據分析師、專案經理、業務團隊及 IT 部門協作, 理解業務需求並協助轉化為技術性數據解決方案 6. 積極學習新技術,並能與團隊成員有效協作、分享知識 【工作內容】 1. 開發、維護和優化複雜的批次和即時數據管線,從多個異質數據源 (包括但不限於 MarTech、AdTech、CDP、CRM、Events log等) 擷取、轉換與載入數據 2. 參與建構與維護基於雲端的數據儲存與處理架構,如數據湖 (Data Lake) 或數據湖倉 (Data Lakehouse),確保系統穩定運行 3. 建構與維護 AI/ML 應用所需的數據集,包括特徵工程數據管線,並研究與實現為 LLM 應用準備數據的機制 (如 MCP 或 RAG 相關數據流程) 4. 參與設計與開發數據服務層 (Data Serving),提供數據 API 或串流數據供下游應用使用 5. 優化現有數據系統和查詢效能,進行效能調校,降低數據處理延遲,提升系統效率 6. 操作與維護自動化的數據流程管理機制,使用 Airflow 等工具進行任務排程與監控 7. 協助建立與維護自動化測試、監控和警報機制,以確保數據平台穩定運行 8. 執行數據治理框架下的具體任務,例如追蹤數據血緣 (Data Lineage),並確保數據處理符合相關法規 9 . 持續學習新興數據技術和行業趨勢 (如 Data Lakehouse, Gen AI 相關技術),並與團隊分享 【技能要求】 1. 具備數據工程相關工作經驗 2 年以上 2. 熟悉 Python 和 SQL,具備良好的程式撰寫能力與數據庫操作能力 3. 具備 Data Orchestration 的實務經驗,熟悉 Airflow 的工作流開發與維護 4. 熟悉至少一個主流雲端平台 (GCP 優先考慮),並對其數據相關服務具備使用經驗 (例如:GCP 的 BigQuery, Cloud Storage, Dataflow, Pub/Sub, Cloud Run, Vertex AI, Composer等) 5. 熟悉數據倉儲 (Data Lakehouse) 或數據湖 (Data Lake) 的概念,並具備協助建構或維護的經驗 6. 熟悉 Git 版本控制系統和 CI/CD 流程 7. 理解數據安全原則、存取控制、數據加密和數據治理概念 【部門介紹】 天下雜誌集團的數據工程師,是數位創新團隊不可或缺的數據架構基石,肩負著以數據賦能的核心使命。此職位的核心職責在於設計、建構並維護高效、穩健的數據基礎設施與數據管線,透過確保數據品質與可用性,以支援推薦系統、CRM、AI/ML 等關鍵應用。我們將與數據工程師攜手,共同推動內容及商務營運目標,將數據驅動的文化深植於日常工作中。 集團旗下擁有《天下》、《康健》、《天下學習》、《親子天下》等知名品牌,涵蓋財經管理、健康生活、工作職場與親子教育等領域。對數據團隊而言,我們就像多家公司合體運作,每個品牌都有獨特的商業模式與需求。從電商、內容訂閱到線上教育的數據應用,你都將有機會深入參與,發揮專業價值,探索多元場景。
應徵
10/14
台北市信義區3年以上大學
誠品致力於打造結合文化、閱讀與生活的全通路生態圈,透過數位創新提升顧客體驗,實現線上與線下服務的無縫整合。 資訊暨商業應用創新處(ICI)負責誠品各類資訊系統的管理與維運,並專注於全通路服務的技術開發、數據分析、雲端技術與 AI 應用,致力於打造創新高效的數位解決方案。我們的目標是實現數據驅動決策、自動化流程與跨通路無縫連結,推動企業數位轉型。如果您對資訊技術充滿熱情,誠心邀請您投遞此職務,加入 ICI,與我們一同解鎖潛力、編碼未來,穩健前行。 【工作內容】 1.Looker Core維護與開發: 建置、維護及優化Looker資料模型與報表,提供各部門精準的決策數據。 設計並開發LookML,實現複雜的數據分析需求。 負責Looker系統的權限控管與使用者管理。 2.BigQuery數據維護與優化: 使用Composer排程,自動化數據處理流程,確保數據品質與時效性。 利用Dataform開發、管理及維護數據管道,提升數據處理效率。 進行BigQuery資料結構優化,提升查詢效能。 3.AI工具導入與應用: 參與AI工具在BigQuery與Looker Core上的導入與應用,探索AI在數據分析領域的潛力。 透過AI輔助工具,提升工作效率,並開發創新的數據分析解決方案。
應徵
10/16
台北市大同區經歷不拘大學以上
【工作內容】 1.協助客戶安裝與部署 Pentaho 產品,包括 Pentaho Data Integration(PDI)、Pentaho Server 和 Pentaho Report Designer。 2.使用 ETL 工具(Pentaho PDI、Talend、Informatica、Microsoft SSIS 等)進行數據抽取、轉換與載入,確保資料正確性與完整性。 3.熟悉 Python 或 Java 等程式語言,能撰寫 ETL 腳本與自動化流程。 4.設計並維護 Data Model,建立高效、可擴充的數據架構。 5.開發與維護 Data Warehouse,確保數據一致性、完整性與可靠性。 6.熟悉 SQL 與常見資料庫(RDBMS / NoSQL),能分析並解決複雜的資料問題。 7.協助客戶安裝與配置 OpenMetadata,並整合至既有數據管理環境。 8.使用 OpenMetadata 平台建立與維護數據資產目錄,協助定義數據標準、數據政策與分類。 9.整合 OpenMetadata 與其他數據管理工具(ETL、資料庫、BI 工具等)。 10.撰寫專案與技術文件,包括安裝手冊、教育訓練教材與客戶需求文件。 11.參與客戶需求訪談,協助規劃與導入完整的數據平台解決方案。 12.其他主管交辦事項。 【必要條件】 1.具備 SQL 語法與資料結構基礎,理解 Data Flow 並能應用於實務案例。 2.熟悉 ETL 工具操作與數據處理邏輯。 3.至少熟悉一種程式語言(Python / Java),能進行自動化與流程開發。 4.理解 Data Model 設計理論並具備實務經驗。 5.良好的溝通能力,能與客戶合作並釐清需求。 6.具備獨立作業與問題解決能力,能快速學習新技術。 【加分條件】 熟悉 Pentaho PDI 或 OpenMetadata 平台。 具備 Data Warehouse、資料治理、資料湖泊等相關經驗。 有報表系統(如 Pentaho Report Designer、Power BI、Tableau)應用經驗。 瞭解雲端數據平台(如 AWS Redshift、GCP BigQuery、Snowflake)尤佳。 具備教育訓練、技術文件撰寫與客戶導入顧問經驗。 【發展方向】 短期(1–2 年):熟悉 Pentaho / OpenMetadata / DWH 平台導入,能獨立執行專案模組。 中期(2–4 年):成為能夠進行跨系統數據整合與數據治理規劃的顧問。 長期(5 年以上):成長為資料架構師 / 雲端數據平台專家,能帶領團隊規劃企業級數據平台。
應徵
10/15
台北市內湖區經歷不拘大學以上
• Design, build, and manage an enterprise on-prem GenAI platform, including model hosting, orchestration, and monitoring. • Collaborate with IT dept,engineers, and business stakeholders to integrate GenAI solutions into core business functions. • Evaluate, implement, and manage AI tools and frameworks (e.g., Hugging Face, LangChain, MLflow, NVIDIA Triton). • Work with RPA (Robotic Process Automation)to embed AI into automation workflows. • Ensure data privacy, governance, and compliance requirements are met for on-prem AI solutions. • Develop internal standards, documentation, and best practices for AI deployment and model lifecycle management. • Optimize performance of AI models and pipelines in resource-constrained environments. • Provide guidance on hardware and software infrastructure for AI workloads • Research and test emerging GenAI technologies and advise on adoption strategies.
應徵
10/20
大同世界科技股份有限公司電腦系統整合服務業
台北市中山區經歷不拘大學以上
【我們在找這樣的你】 我們正在尋找具備高度實戰能力的 AI 工程師,能獨立推動 AI 專案的導入與落地,包括需求分析、模型應用、知識建構、Prompt 設計、系統優化與成效分析。我們希望你不只是了解技術,而是能真正讓 AI 為企業解決問題、創造價值。 【工作內容】 一、AI導入與專案執行 • 規劃並導入 AI 解決方案,涵蓋智慧客服、知識檢索、Agentic AI 等應用 • 分析企業需求,設計對話流程與應用邏輯,提出具體可執行的導入計畫 • 串接各類模型與服務,整合語音、文字、文件、資料庫與企業內部系統 • 撰寫提案簡報、導入規格、使用手冊、產品腳本與測試文件,支援跨部門溝通與交付 • 與業務、合作夥伴、客戶端密切協作,確保專案如期推進並達成預期效益 • 培訓內外部人員,推動AI工具的落地應用與使用文化建立 二、Prompt 設計與模型優化 • 熟練撰寫高效 Prompt,針對不同應用場景進行設計與調整 • 規劃與執行模型回應品質測試,持續優化對話體驗 • 掌握語意理解、角色設計、多輪互動與工具調用等模型應用方式 三、知識庫建構與對話紀錄分析 • 建構與優化AI使用的知識庫與文件素材,確保內容結構與品質一致 • 定期分析實際對話紀錄,找出盲點與優化空間,提出改進建議 • 協助定義關鍵指標,追蹤使用成效與回應品質,推動知識持續更新 四、測試驗證與系統優化 • 參與產品測試、使用者驗收流程,確認系統功能與效能表現 • 撰寫測試案例、錯誤報告與回饋紀錄,協助技術團隊迭代調整 • 分析數據,提出使用體驗優化方案,落實回饋與追蹤改善 五、AI技術研究與創新應用 • 持續追蹤生成式AI、生產力工具、模型框架等技術發展 • 定期規劃內部技術研究或實驗性專案,探索創新應用場景 • 針對業務需求與產業趨勢,提出AI應用落地計畫與技術轉換提案 【必備條件】 • 熟練掌握至少一種主流程開發語言,如 Python、Node.js或C# • 熟悉大型語言模型應用與Prompt工程設計 • 具備AI解決方案導入經驗,能獨立完成規劃與需求轉化 • 熟悉知識結構化與資料檢索應用邏輯 • 具備技術簡報與專業文件撰寫能力 • 能清楚表達技術概念,並協助跨部門有效協作 • 熟悉Excel或其他數據分析工具,能進行效益追蹤與報告撰寫 【加分條件】 • 實作過聊天機器人、智能客服、語音助理或AI知識管理系統 • 熟悉NLP、RAG、向量資料庫、MCP、A2A等應用 • 熟悉 SQL語法或SQL/NoSQL設計邏輯 • 熟悉系統架構規劃與雲端平台,如 Azure • 使用過 LangChain、LlamaIndex、Ragas、AutoGen等工具 • 有教學影片製作經驗或具備簡報動畫設計能力 • 有B2B企業系統導入、PoC或顧問服務經驗 【我們的團隊文化】 • 開放透明:資訊共享、無階級溝通,歡迎挑戰與提問 • 快速試錯:Prototype is better than PowerPoint,做中學、實驗迭代 • 用戶導向:從實際企業需求出發,打造真正好用的AI解決方案 • 技術共學:鼓勵內部分享、Side Project 與AI議題研究小組 【ibo.ai的應用場景】 • AI員工:任務指派、知識彙整、商品推薦、多角色協作與自動化執行 • 智能客服:結合知識庫、語意理解與語音系統的客戶服務方案 • AI健檢及優化:AI評測、數據分析/見解與服務品質提升分析 • 多模態應用:整合文字、圖像、語音等AI工具,優化企業流程
應徵
10/20
HUA AO_香港商創金科技有限公司其它軟體及網路相關業
台北市大同區2年以上專科
【工作內容】 1. 熟練掌握 SQL、Python,瞭解數據建模理論 2. 熟悉數據倉庫工具(如 Snowflake、Redshift、BigQuery、Databricks 等) 3. 使用 BI 可視化工具(如 Power BI、Tableau、Looker) 4. 有支付相關業務(如交易數據、支付成本、渠道分潤)分析經驗 5. 具 ETL 構建經驗,熟悉 Airflow、DBT 等數據編排工具經驗 【加分條件】 有參與資料平台、BI 系統或數據倉儲專案的經驗,能獨立完成中小型任務 熟悉 Git、CI/CD、Docker 等基礎 DevOps 工具者佳 參與團隊數據治理與標準制定經驗者尤佳 具備良好的跨部門溝通與協作能力,能協助推動任務執行與進度管理
應徵
10/20
果友科技有限公司電腦軟體服務業
台北市大安區1年以上學歷不拘
我們正在尋找一位具備後端架構思維的「數據工程師」,能與企業客戶的數據分析、工程團隊協作,打造穩定且可擴展的數據處理流程。 這份職缺主要任務是設計並維運高可靠性的 ETL 與 Airflow 數據流程,確保資料能自動化運行、正確轉換,成為企業決策與 AI 應用的核心動能。 【工作內容】 1. 規劃、開發與維運企業級 ETL 數據流程,確保資料高效流轉與品質穩定 2. 使用 Apache Airflow 建立自動化排程與監控機制,確保任務準時執行與可追蹤性 3. 使用 Python(pandas、numpy 等)進行資料清理、轉換與整併,支援分析與應用服務 4. 負責 MongoDB 的資料設計、查詢效能優化與維運管理 5. 需「派駐」至健康管理企業現場,協助數據流程導入與落地 【必備技能】 - 精通 Python 程式設計與數據處理(pandas、numpy) - 具備 ETL / Airflow 實務經驗(包含 DAG 設計、排程與監控) - 具良好資料處理邏輯與數據品質控管概念 - 熟悉 Git 版本控制與 CI/CD 自動化部署流程(ex: GitHub Actions 或 GitLab CI) 【加分技能】 1. MongoDB 架構設計與操作 2.. 具備資料倉儲或數據湖架構經驗 3. 資訊工程、資訊管理、數學、統計等相關背景尤佳 【我們的願景】 加入果友科技,與我們一起打造穩健的數據基礎設施,讓資料在企業間流動得更順暢,持續以數據創造影響力 有興趣者歡迎投遞履歷或直接聯繫我們,期待你的加入!
應徵
10/13
創代科技股份有限公司工商顧問服務業
台北市中山區1年以上碩士以上
我們正在尋找一位 Mid-Level 的數據工程師 (Data Engineer),主要負責 資料庫建置、ETL 流程設計與開發、數據處理與分析。目前創代科技曾執行過的專案包含了 大型語言模型產品開發(涵蓋雲端、地端、雲地混合方案)、深度學習開發(產品洞察與行為預測、時間序列預測、路線最佳化)、機器學習應用(各產業客戶的資料探勘與分析)、數據中台建置(含資料正規化、ETL 建置、導入 dbt、snowflake)!我們現在手上有各種類型的專案等著你來玩! 為什麼選擇創代科技? 創代科技是一家提供數據科學顧問服務的公司,業務涵蓋 零售、交通、物流、航運、電信、能源、犯罪、災防 等多元領域,並持續拓展至其他前沿產業。在這裡,你將接觸到多樣化的數據場景,包括乾淨度各異的資料與高度客製化的架構設計,讓你在解決各種挑戰中快速成長。 如果你熱愛學習新技術、探索創新解決方案,那麼在創代擔任數據工程師,將是你的最佳選擇。 ✅ 【職責內容】 1. 資料庫設計:熟悉資料庫概念,協助建置與維護資料倉儲、資料湖跟資料中臺。 2. ETL 或 ELT 流程開發:協助客戶建立基於地端或是雲端的資料流架構,整合多元數據來源(結構化與非結構化),構建高效數據處理系統,確保資料一致性與完整性。 3. 數據處理與協作:與資料科學家、資料分析師及後端工程師協作,處理 Data Pipeline 建置及數據收集、探勘與轉換。 4. 協助客戶工具導入:協助客戶翻新原有 Pipeline,並導入 dbt、snowflake等。 ✅ 【我們期待你具備】 1. 學歷背景:具備碩士學位, 資訊工程、資訊管理、資料科學、數學、統計、電機相關領域加分。 2. 專業技能: - 熟悉數據處理與分析,具備 ETL / ELT 流程開發與維護經驗。 - 熟悉 關聯式資料庫(如 PostgreSQL)及 圖形資料庫(如 Neo4j),擁有資料倉儲建置與操作經驗。 - 熟悉 Linux 環境,並具備版本控制工具(如 Git)使用經驗。 - 熟悉 容器化技術(如 Docker、Kubernetes),了解其生產環境運行與管理。 - 具備 Airflow 排程管理及模型部署經驗。 ✅ 【加分條件】 - 雲端服務:熟悉 GCP、AWS、Azure,具備跨雲架構整合及服務部署能力。 - 分散式系統:有 Hadoop、Spark 開發經驗者尤佳。 - 資料庫工具:具備 dbt 或是 snowflake 導入或是使用經驗。 - DevOps 經驗:具備 CI/CD 自動化部署實作經驗。 - BI 工具:熟悉 Tableau、Looker、Power BI。 - 演算法基礎:理解機器學習、深度學習背後邏輯或是應用經驗。 ✅ 【薪資待遇】 - 面議,保障年薪 14 個月。 ✅ 【公司福利】 - 彈性上下班時間、彈性居家上班福利。 - 每月享有職員不扣薪福利假、生日當月再多一天生日假。 - 不定期員工聚餐、午餐、下午茶、出遊團康活動等。 - 公司零食區、冰箱飲料、咖啡櫃永遠補給充足,讓每位新進夥伴都保證先胖五公斤! - 保障年終獎金 2 個月,其他績效獎金還可以靠自己爭取,亦提供結婚、生育等各項禮金。 - 電腦設備:公司提供工作機,亦可自備設備並領取每月電腦補助費。 - 每年提供教育訓練補助。 - 提供定期健康檢查補助。 - 每年定期進行績效考核,讓職員的升遷與薪資調整更有依據與保障。 ✅ 此職缺定位為 Mid-Level,尋找 1 - 3 年經驗的人選
應徵
10/21
悠遊卡股份有限公司其他金融及輔助業
台北市南港區3年以上大學以上
1.需求釐清: 依內部需求進行資料模型分析,如資料表增減、欄位增減、規則轉換、調整分析結果,並產出分析文件 2.設定規則: 依分析文件撰寫SQL語法及ETL設定處理,並進行資料驗證 3.平台維運: 日常監控及定期檢查 4.平台串接: 平台與應用系統串接 5.交辦事項
應徵
10/15
叡揚資訊股份有限公司電腦軟體服務業
台北市中山區經歷不拘專科以上
我們正在尋找一位對資料有熱情,並具備資料流處理能力的資料工程師,協助我們打造高效、可擴展的資料處理與資料治理平台。主要工作內容包括: 1. 進行資料治理平台之品質檢核規則開發及維護 2. 進行資料品質規則推薦功能之發想及開發 3. 與後端、DevOps 等團隊合作,溝通協調資料處理面與前台介面整合之事項 4. 撰寫與維護技術文件與數據流程說明
應徵
10/15
台北市信義區3年以上大學
您是否渴望在金融科技的前沿,以前瞻數據、AI 與 LLM 技術驅動創新,塑造未來金融服務? 科技創研中心金融科技處,正積極尋找充滿熱忱、具備專業技能的 數據暨AI工程師 加入我們的創新團隊。您將負責金融科技領域的企業級數據平台、AI 平台及 LLM 相關基礎設施的開發、管理與優化,尤其著重於 Data Lakehouse 架構的實踐與 Denodo 虛擬化技術的應用,並參與大型語言模型 (LLM) 在金融領域的應用開發與部署,確保數據的安全性、高效傳輸與穩定運作,為金融 AI/LLM 應用與策略決策提供堅實的技術後盾,助力提升金融服務的競爭力與創新能力。如果您對數據工程、AI/LLM 工程在金融領域的應用充滿熱情,並熟悉 Data Lakehouse、Denodo 等先進技術,且對 LLM 的發展與應用有深入了解,渴望在充滿挑戰與成長的環境中發揮所長,誠摯邀請您加入我們! 【工作職責】 •Data Lakehouse 平台開發與管理: 負責金融科技領域基於 Data Lakehouse 架構的數據平台設計、開發、部署、維護與優化,整合結構化與非結構化數據,提供彈性高效的數據存儲與分析能力,以支持 LLM 相關應用所需的大規模數據。 •Denodo 虛擬化平台管理與開發實作: 負責 Denodo 虛擬化平台的設計與管理,實現多個異質數據源的邏輯整合,提供統一的數據存取介面,簡化數據獲取流程,以支援 LLM 應用所需的多樣化數據來源。 •數據管道開發: 設計並實作高效能的 ETL/ELT 流程,處理多元金融數據來源 (例如:交易數據、市場數據、客戶數據、文本數據等),確保數據的準確性、完整性與即時性,並能有效整合至 Data Lakehouse 或透過 Denodo 進行虛擬化,以供各單位進行分析與應用。 •數據整合與清理: 負責數據的整合、轉換、清理、標準化與特徵工程,提高數據品質,為後續的數據分析、風險模型、 AI 模型與 LLM 的訓練及微調 奠定良好基礎,並考量 Data Lakehouse 的數據治理與管理。 •AI/LLM 平台管理: 負責企業 AI 平台、LLM 相關基礎設施 (例如:GPU 伺服器、模型儲存、API 部署等) 及 MLOps 流程的維護、管理與優化,確保企業內 AI/LLM 模型開發、訓練、微調與安全部署流程的順暢與高效,符合金融保險行業的合規要求,並能有效利用 Data Lakehouse 中的數據。 •LLM 應用開發與部署: 參與金融領域大型語言模型 (LLM) 的應用開發、測試與部署,例如:AI Agent、文本分析、資訊抽取、內容生成等。 •數據監控與效能調校: 開發與運營數據管道、數據庫、Data Lakehouse、AI 平台及 LLM 應用 的監測機制,進行效能分析與調校,確保系統的穩定運行與高效能,並符合系統穩定性的嚴格要求。 •跨部門協作: 與AI 科學家、IT 部門、Biz部門 (例如:通路、核保、商品等) 等緊密合作,深入了解企業業務需求與痛點,提供穩健且高效的數據與 AI/LLM 平台解決方案,並能利用 Data Lakehouse 和 Denodo 提供的能力。
應徵
10/20
烽泰科技有限公司其他金融及輔助業
台北市大同區3年以上大學
【工作內容】 作為集團數據策略的關鍵推手,您將有機會與集團IT團隊一同將財務數據從傳統架構轉型至現代化雲端平台 (AWS)。如果您渴望與頂尖數據專家、專案經理共同協作,並將資料工程、雲端、DataOps 技術應用於實際業務痛點,那麼這個職位正是您的最佳舞台! 我們的Sr. Finance DE將會與集團IT團隊合作,逐步將財務資料從地端VM搬遷至AWS雲端環境,並協助其他財務部同仁將日常業務報表、分析報表進行自動化。我們重視快速溝通與實際的專案交付! 在這裡,除了具競爭力的薪資與各種福利外,您還能與團隊內不同的夥伴們相互學習,追求技術成長。我們相信,透過透過實際的專案開發與新技術的學習與使用,才是讓團隊不斷進步與成長的動力! 【您需要做什麼?】 • 協助財務數據雲端轉型: 與集團 IT 團隊緊密協作,規劃並執行財務核心資料從地端 VM 遷移至 AWS 雲端環境的策略與實施。 • 建構數據自動化流程: 設計、開發並維護高效、穩定的財務數據 ETL/ELT pipeline,實現日常業務報表與分析報表的全面自動化。 • 數據架構優化與創新: 持續學習並導入先進的資料領域知識與技術(如 DataOps、FinOps 概念),優化現有數據架構,提升數據處理效率與品質。 • 跨部門協作與溝通: 深入理解財務部門需求,並能將複雜的技術概念清晰地傳達給非技術背景的同仁,共同推動專案進程。 • 數據專案開發與管理: 負責數據相關專案的設計、開發與維護,包含 Datalake 管理、資料收集、清洗、儲存等關鍵功能,確保數據的完整性、一致性與可用性。 • 文件撰寫與知識傳承: 撰寫清晰的開發文件 (Design Document, ERD, Diagram, User Manual),確保專案知識的有效傳承。 【我們期待您具備】 • 精通 SQL,具備大規模集中/分散式資料庫的 CRUD 操作、效能優化及資料清洗 (ETL/ELT) 實戰經驗。 • 豐富的 Python 資料工程開發經驗,熟悉並應用 pandas, numpy, pyspark 等核心套件。 • 具備 AWS 雲端平台 (例如 S3, EC2, Lambda, Glue, Redshift, Athena 等服務) 與 Databricks 的實務開發經驗。 • 具備 Data Pipeline (資料流) 的設計、搭建與優化能力,熟悉 Dagster 或 Airflow 等排程工具。 • 5 年以上資深資料工程師或相關經驗,並具備獨立主導專案的能力。 • 卓越的需求訪談與業務邏輯理解能力,能將複雜的技術概念清晰地傳達給非技術背景利害關係人。 • 具備良好的溝通協作能力,主動積極解決問題,並樂於分享知識。 【符合以下條件,將是您的優勢】 • 具備財務金融相關專業知識或在金融科技產業的資料工程經驗。 • 對 DataOps 或 FinOps 理念有深入理解與實踐經驗。 • 熟悉 Linux 操作與 Shell Script。 • 具備 資料視覺化工具 (Tableau、PowerBI) 實務經驗。
應徵
10/16
凌越生醫股份有限公司生化科技研發業
台北市內湖區經歷不拘專科
1. 負責網站(官網、電商網站)編碼,外鏈建置工作,能夠快速為網站獲取高權重鏈接;提高網站整體流量。 2. 瞭解SEO原理和實施方法,如關鍵字優化、標籤優化、標題優化、關鍵字排名優化等。 3. 監測分析公司與競業網站流量,排名收錄等數據,並優化網站整體排名。 4. Google Ads平台操作:設定廣告活動、彙整廣告數據、撰寫報表分析、優化文案的策略。 5. 分析與追蹤 Facebook、Instagram、LINE、Google(GA4、Ads、Search Console)等數位媒體平台數據,評估貼文互動、廣告投放、觸及率、點擊率與轉換率,並提出優化與廣告預算調整建議。 6. 利用 Google Analytics 等工具追蹤官網訪客行為、跳出率、轉換路徑與銷售績效,分析網站活動成效與回購率。 7.CRM系統維運(活動短網址、串接商機、成交率分析等)
應徵