104工作快找APP

面試通知不漏接

立即安裝APP

「Data engineering」的相似工作

MMA PAN ASIA FUND_美商恩暐有限公司
共504筆
精選
台北市大安區1年以上學歷不拘
你相信嗎?當你成為摩爾投顧的分析師,你的薪水會比外資分析師還高!在摩爾投顧,半數以上的分析師,皆是年薪1000萬以上!!儲備分析師,年薪70萬至150萬,甚至可挑戰年薪150萬以上,全依你的能力、潛力或相關專業經驗,一切都不是夢想或口號,摩爾投顧以高薪徵求儲備股票分析師! 儲備計畫與工作內容 1. 提供專業股市培訓計畫與資源,由資深證券分析師為你的職業導師,親自指導與帶領。 2. 提供做中學的機會,透過專題學習,加速對股市的深入了解。 3. 提供激勵獎金制度,用客觀指標量化儲備分析師的表現,給於獎賞。 4. 實際撰寫相關財經短文,培養分析能力。 5. 執行資深分析師與主管的交辦事項,面對多樣的股市動態。 6. 參與相關財經節目的製作團隊,培養主題企劃能力。 7. 定期審核與追蹤成長表現,以盡速成為股票分析師為目標。 應徵條件 1. 具備基本的財經知識,相關科系畢業尤佳,但非必要條件。 2. 對研究台灣股市有熱情,熱愛追蹤時勢新聞,具備實際投資經驗有加分。 3. 夠細心、負責任、思路清晰,具良好溝通能力及情緒管理能力。 4. 熟悉Word、Excel、PowerPoint,並撰寫報告及報表製作之能力。 5. 有普業/高業/分析師證照佳,若尚未考取,可在培養計畫中同時準備證照考試。
應徵
精選
台北市大安區經歷不拘專科以上
1、要有專業的財經知識,有投顧相關經驗者尤佳。 2、對於股票有熱情。 3、熟悉Word、Excel、PowerPoint,並擅長撰寫報告及報表製作之能力。 4、主管交代事項辦理。 5、需細心、負責任、高抗壓性、思路清晰、有耐心,具良好溝通能力及情緒管理能力。 ☆☆☆ 麻煩請附上對於股市市場的分析、投資建議之研究報告。 ☆☆☆ 麻煩請附上個人自傳。
應徵
精選
台北市大安區經歷不拘大學以上
你相信嗎?當你成為摩爾投顧的分析師,你的薪水會比外資分析師還高!在摩爾投顧,半數以上的分析師,皆是年薪1000萬以上!! 想成為獨當一面的分析師,最快方法就是來摩爾成為儲備分析師!摩爾推出最新職缺【儲備千萬分析師】,通過3個月試用期後,直接保底年薪120萬,並由業界最知名分析師郭哲榮親自指導,過去通過訓練的分析師,正式上線後年薪全數突破1000萬!一切都不是夢想或口號,摩爾投顧以高薪徵求耐操、對賺錢有極大慾望的儲備千萬分析師! 儲備計畫與工作內容 1. 提供專業股市培訓計畫與資源,由郭哲榮分析師為你的職業導師,親自指導與帶領。 2. 提供做中學的機會,透過專題學習,加速對股市的深入了解。 3. 提供激勵獎金制度,用客觀指標量化儲備分析師的表現,給於獎賞。 4. 實際撰寫相關財經短文,培養分析能力。 5. 執行資深分析師與主管的交辦事項,面對多樣的股市動態。 6. 參與相關財經節目的製作團隊,培養主題企劃能力。 7. 定期審核與追蹤成長表現,以盡速成為股票分析師為目標。 應徵條件 1. 具備基本的財經知識,相關科系畢業尤佳,但非必要條件。 2. 對研究台灣股市有熱情,熱愛追蹤時勢新聞,具備實際投資經驗有加分。 3. 夠細心、負責任、思路清晰,具良好溝通能力及情緒管理能力。 4. 熟悉Word、Excel、PowerPoint,並撰寫報告及報表製作之能力。 5. 有普業/高業/分析師證照佳,若尚未考取,可在培養計畫中同時準備證照考試。
應徵
精選
台北市信義區3年以上大學以上
【主要職責】 - 設計並維護 自動化資料驗證框架(Automation Framework),覆蓋 batch 與 streaming pipeline。 - 針對 Kinesis、Kafka、Airflow、MySQL、Redshift 等環境執行資料驗證與轉換測試。 - 開發與執行測試計畫,驗證資料擷取(Ingestion)、轉換(Transformation)與載入(Loading)的準確性。 - 監控資料流程,偵測並通報資料異常、延遲、遺失等問題。 - 與 Data Engineer 合作解決 pipeline、schema、metadata 相關問題。 - 驗證資料模型、ETL/ELT 流程與商業邏輯的一致性與正確性。 - 建立並維護 QA 文件,包括 Test Case、Runbook、Validation Report。 - 參與資料平台版本釋出與更新,確保新功能與數據流穩定。 - 實作 資料品質指標(Data Quality Metrics) 與警報機制,用於即時與排程任務監控。 【任職資格】 - 3 年以上 Data QA、Data Engineering 或相關經驗。 - 精通 SQL(MySQL / Redshift),能撰寫複雜查詢與資料驗證邏輯。 - 熟悉 Streaming 系統(Kinesis、Kafka)資料流測試與監控。 - 具 Airflow 或其他資料流程編排工具實務經驗。 - 熟悉 Python,用於資料驗證與自動化測試腳本撰寫。 - 理解資料倉儲架構、ETL/ELT 流程與資料建模。 - 有大型資料集處理與效能調校經驗。 - 了解 Schema 演進、Data Contract 與 Metadata 管理概念。 【加分條件】 - 有 AWS 生態系操作經驗(S3、Lambda、Glue、IAM)。 - 熟悉資料治理與法規遵循(GDPR、CCPA)。 - 具測試框架經驗(PyTest、Great Expectations)。 - 熟悉 CI/CD 流程並能應用於資料工作流測試。 【軟技能與團隊特質】 - 對資料準確性、流程穩定性與品質具有高度責任感。 - 細心、有條理,具備優秀的問題分析與溝通能力。 - 樂於與跨部門合作(Data Engineer、Analyst、PM),共同提升資料品質。 - 具持續學習與探索新技術的動能。 【工作地點】 - 台北市(近捷運站) - 提供彈性上班制度與國際化數據團隊合作環境 【我們提供】 - 具競爭力的薪資與年度獎金制度 - 三節禮金與年度健康檢查 - 彈性上下班與混合辦公制度 - 國際化團隊合作與跨國職涯發展機會
應徵
10/25
群越廣告科技有限公司電腦軟體服務業
台北市松山區3年以上大學以上
我們尋找一位資料敏銳度高、擁有穩健工程實作力的資料工程師,加入我們的遊戲推薦系統開發團隊! 這個職位非常適合熟悉 資料處理流程、具備 API 設計與部署經驗、懂得 推薦模型訓練實務,並熱衷於將 AI 技術應用在真實產品場景中的人才。 你將參與我們打造高效能推薦系統的核心挑戰之一:處理高頻率、多次存取的推薦查詢問題(Multiple Access / Frequent Access Patterns)。在實務上,推薦系統需支援大量使用者在極短時間內反覆觸發推薦請求(如首頁刷新、排行榜滑動、活動推薦等),對於資料快取策略、查詢優化、線上/離線計算資源分配都提出極高要求。 我們期望你能透過設計 穩定高效的資料管線與特徵服務(Feature Store),結合良好的 API 封裝,確保推薦服務在多次存取場景下依然具備良好延遲控制與回應品質,讓系統在真實流量下穩健運作、持續為玩家提供個性化、即時的推薦體驗。 線上視訊筆試,請 share screen 解題: Python 操作 SQL 語法(PyMySQL) Flask API 封裝與邏輯設計 Numpy 矩陣操作與轉換 Multithreading 多執行緒概念與應用 PyTorch 假碼撰寫與推薦演算法說明 必備條件(務必具備): Python 資料處理能力強,熟悉生態系統:pandas、numpy、pyMysql、SQLAlchemy 熟練 SQL 查詢與資料倉儲操作,具備處理大型資料集的經驗 實際操作過 Flask API 設計與服務包裝 理解推薦系統與分類/排序模型的運作,具備實作經驗 熟悉模型部署工具,例如 Flask / FastAPI、joblib、ONNX、MLflow 等 具備跨部門溝通能力與資料產品思維,能獨立拆解與解決資料問題 加分條件(非必要,但會加分) 使用過雲端資料平台:BigQuery、Snowflake、Redshift 有推薦模型訓練與優化經驗:如 DNN-based 矩陣分解、Pairwise Ranking、Embedding 模型 熟悉 強化學習、Bandit Algorithm 在推薦系統中的應用 曾設計過 AB test 並執行評估分析 實作過 Feature Store、推薦 pipeline 框架設計經驗
應徵
10/13
創代科技股份有限公司工商顧問服務業
台北市中山區1年以上碩士以上
我們正在尋找一位 Mid-Level 的數據工程師 (Data Engineer),主要負責 資料庫建置、ETL 流程設計與開發、數據處理與分析。目前創代科技曾執行過的專案包含了 大型語言模型產品開發(涵蓋雲端、地端、雲地混合方案)、深度學習開發(產品洞察與行為預測、時間序列預測、路線最佳化)、機器學習應用(各產業客戶的資料探勘與分析)、數據中台建置(含資料正規化、ETL 建置、導入 dbt、snowflake)!我們現在手上有各種類型的專案等著你來玩! 為什麼選擇創代科技? 創代科技是一家提供數據科學顧問服務的公司,業務涵蓋 零售、交通、物流、航運、電信、能源、犯罪、災防 等多元領域,並持續拓展至其他前沿產業。在這裡,你將接觸到多樣化的數據場景,包括乾淨度各異的資料與高度客製化的架構設計,讓你在解決各種挑戰中快速成長。 如果你熱愛學習新技術、探索創新解決方案,那麼在創代擔任數據工程師,將是你的最佳選擇。 ✅ 【職責內容】 1. 資料庫設計:熟悉資料庫概念,協助建置與維護資料倉儲、資料湖跟資料中臺。 2. ETL 或 ELT 流程開發:協助客戶建立基於地端或是雲端的資料流架構,整合多元數據來源(結構化與非結構化),構建高效數據處理系統,確保資料一致性與完整性。 3. 數據處理與協作:與資料科學家、資料分析師及後端工程師協作,處理 Data Pipeline 建置及數據收集、探勘與轉換。 4. 協助客戶工具導入:協助客戶翻新原有 Pipeline,並導入 dbt、snowflake等。 ✅ 【我們期待你具備】 1. 學歷背景:具備碩士學位, 資訊工程、資訊管理、資料科學、數學、統計、電機相關領域加分。 2. 專業技能: - 熟悉數據處理與分析,具備 ETL / ELT 流程開發與維護經驗。 - 熟悉 關聯式資料庫(如 PostgreSQL)及 圖形資料庫(如 Neo4j),擁有資料倉儲建置與操作經驗。 - 熟悉 Linux 環境,並具備版本控制工具(如 Git)使用經驗。 - 熟悉 容器化技術(如 Docker、Kubernetes),了解其生產環境運行與管理。 - 具備 Airflow 排程管理及模型部署經驗。 ✅ 【加分條件】 - 雲端服務:熟悉 GCP、AWS、Azure,具備跨雲架構整合及服務部署能力。 - 分散式系統:有 Hadoop、Spark 開發經驗者尤佳。 - 資料庫工具:具備 dbt 或是 snowflake 導入或是使用經驗。 - DevOps 經驗:具備 CI/CD 自動化部署實作經驗。 - BI 工具:熟悉 Tableau、Looker、Power BI。 - 演算法基礎:理解機器學習、深度學習背後邏輯或是應用經驗。 ✅ 【薪資待遇】 - 面議,保障年薪 14 個月。 ✅ 【公司福利】 - 彈性上下班時間、彈性居家上班福利。 - 每月享有職員不扣薪福利假、生日當月再多一天生日假。 - 不定期員工聚餐、午餐、下午茶、出遊團康活動等。 - 公司零食區、冰箱飲料、咖啡櫃永遠補給充足,讓每位新進夥伴都保證先胖五公斤! - 保障年終獎金 2 個月,其他績效獎金還可以靠自己爭取,亦提供結婚、生育等各項禮金。 - 電腦設備:公司提供工作機,亦可自備設備並領取每月電腦補助費。 - 每年提供教育訓練補助。 - 提供定期健康檢查補助。 - 每年定期進行績效考核,讓職員的升遷與薪資調整更有依據與保障。 ✅ 此職缺定位為 Mid-Level,尋找 1 - 3 年經驗的人選
應徵
10/22
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
10/15
台北市南港區7年以上大學以上
【崗位職責】 1) 負責公司內部資料平臺的規劃、開發與持續優化,保障資料的完整性、可用性與安全性。 2) 基於 AWS 雲平臺及主流服務(如 EC2、S3、Redshift、Glue、Lambda、Athena 等)設計並實現高可用、高性能的資料處理與分析系統。 3. 設計並實施可擴展的後端服務,支援資料流程處理、ETL 流程、API 介面與任務調度邏輯。 4. 搭建並維護資料視覺化與 BI 平臺(如 QuickSight等)。 5. 深度參與資料治理、資料建模、資料品質監控等體系建設。 6. 著重資料蒐集處理流程。 7. 與業務部門合作,提供穩定高效的資料分析支援。 【任職要求】 1) 資管/資工/電機相關大學以上學歷,10 年以上軟體發展經驗,其中 5 年以上後端系統開發經驗。 2) 精通至少一種主流程式設計語言(如 Python、Java、Go 等),並熟悉 SQL 與資料處理框架(如 Spark)。 3) 熟悉 AWS 雲平臺及主流服務(S3、Redshift、Glue、Lambda、Athena 等),具備實際專案執行經驗。 4) 有大型分散式系統或資料平臺建設經驗,具備良好的系統架構能力。 5) 熟悉資料建模、資料分層架構、資料治理理念。 6) 具備 BI 視覺化系統或報表平臺的搭建與運維經驗。 7) 較強的溝通能力、團隊協作精神和自我驅動能力。
應徵
10/21
台北市中山區2年以上大學
【工作內容】 1. 將概念性想法設計規劃為可執行的解決方案 2. 大數據專案的規劃,數據接入、清洗、建模與可視化的設計 3. 與機器學習工程師、雲端架構師、PM密切合作共同合作完成專案,供客戶高質量的雲端數據相關服務 4. 負責協助客戶整合、設計、部署大數據處理流程與平臺 5. 探索雲端服務組合的可能性,創造全新的可能性 【必備技能/條件】 1. 3 年以上資料排程、處理、清洗、分析的實務經驗 2. 2 年以上資料處理常用的 Open Source 工具的實務經驗,eg. Spark, Airflow, hadoop 3. 2 年以上Python / Java 程式語言開發相關工作經驗 4. 擅長解決問題、除錯、故障排除,提出問題解決方案 【加分條件】 1. 具備BigQueryRDBMSNoSQL使用經驗 2. 具備爬蟲相關經驗 3. 熟悉 Restful API
應徵
10/23
台北市大同區經歷不拘大學以上
【工作內容】 1.協助客戶安裝與部署 Pentaho 產品,包括 Pentaho Data Integration(PDI)、Pentaho Server 和 Pentaho Report Designer。 2.使用 ETL 工具(Pentaho PDI、Talend、Informatica、Microsoft SSIS 等)進行數據抽取、轉換與載入,確保資料正確性與完整性。 3.熟悉 Python 或 Java 等程式語言,能撰寫 ETL 腳本與自動化流程。 4.設計並維護 Data Model,建立高效、可擴充的數據架構。 5.開發與維護 Data Warehouse,確保數據一致性、完整性與可靠性。 6.熟悉 SQL 與常見資料庫(RDBMS / NoSQL),能分析並解決複雜的資料問題。 7.協助客戶安裝與配置 OpenMetadata,並整合至既有數據管理環境。 8.使用 OpenMetadata 平台建立與維護數據資產目錄,協助定義數據標準、數據政策與分類。 9.整合 OpenMetadata 與其他數據管理工具(ETL、資料庫、BI 工具等)。 10.撰寫專案與技術文件,包括安裝手冊、教育訓練教材與客戶需求文件。 11.參與客戶需求訪談,協助規劃與導入完整的數據平台解決方案。 12.其他主管交辦事項。 【必要條件】 1.具備 SQL 語法與資料結構基礎,理解 Data Flow 並能應用於實務案例。 2.熟悉 ETL 工具操作與數據處理邏輯。 3.至少熟悉一種程式語言(Python / Java),能進行自動化與流程開發。 4.理解 Data Model 設計理論並具備實務經驗。 5.良好的溝通能力,能與客戶合作並釐清需求。 6.具備獨立作業與問題解決能力,能快速學習新技術。 【加分條件】 熟悉 Pentaho PDI 或 OpenMetadata 平台。 具備 Data Warehouse、資料治理、資料湖泊等相關經驗。 有報表系統(如 Pentaho Report Designer、Power BI、Tableau)應用經驗。 瞭解雲端數據平台(如 AWS Redshift、GCP BigQuery、Snowflake)尤佳。 具備教育訓練、技術文件撰寫與客戶導入顧問經驗。 【發展方向】 短期(1–2 年):熟悉 Pentaho / OpenMetadata / DWH 平台導入,能獨立執行專案模組。 中期(2–4 年):成為能夠進行跨系統數據整合與數據治理規劃的顧問。 長期(5 年以上):成長為資料架構師 / 雲端數據平台專家,能帶領團隊規劃企業級數據平台。
應徵
10/22
株式会社シエス情報電腦系統整合服務業
日本3年以上大學以上
招募台灣地區工程師 公司提供簽證的更新以及新規簽證。 可提供高度人才簽證(5年)額外加20分,提早取得永久居留權。 執行案件為一般商業、金融案件居多,會派至委託公司駐點或在宅。 【工作內容】 1.負責軟體之分析、設計以及程式撰寫。 2.規劃執行軟體架構及模組之設計,並控管軟體設計進度。 3.進行軟體之測試與修改。 4.規劃、執行與維護量產的產品。 5.協助研發軟體新技術與新工具。 【工作職缺】Python軟體開發工程師(工作經驗三年以上) 【徵求條件】JAVA,NET,C#C,C++,Python,salesforce,SAP,PHP,IOS,Android,AWS,React.Ruby.C# (其中有一至兩項擅長的項目歡迎詢問) *無日文N1以上(可無檢定證書,但需聽說讀寫流利)請勿投遞履歷,國外遠端工作不可* 【工作地點】日本關東地區 【工作時間】9:00-18:00 中午休息1小時(依客戶現場為主) 【公司制度】1.提供雇用保險、健康保險、年金保險 2.完全週休2日、GW/夏休/年末年始連休 3.工作產生的交通費實報實銷 4.一年一度健康檢查
應徵
10/20
烽泰科技有限公司其他金融及輔助業
台北市大同區3年以上大學
【工作內容】 作為集團數據策略的關鍵推手,您將有機會與集團IT團隊一同將財務數據從傳統架構轉型至現代化雲端平台 (AWS)。如果您渴望與頂尖數據專家、專案經理共同協作,並將資料工程、雲端、DataOps 技術應用於實際業務痛點,那麼這個職位正是您的最佳舞台! 我們的Sr. Finance DE將會與集團IT團隊合作,逐步將財務資料從地端VM搬遷至AWS雲端環境,並協助其他財務部同仁將日常業務報表、分析報表進行自動化。我們重視快速溝通與實際的專案交付! 在這裡,除了具競爭力的薪資與各種福利外,您還能與團隊內不同的夥伴們相互學習,追求技術成長。我們相信,透過透過實際的專案開發與新技術的學習與使用,才是讓團隊不斷進步與成長的動力! 【您需要做什麼?】 • 協助財務數據雲端轉型: 與集團 IT 團隊緊密協作,規劃並執行財務核心資料從地端 VM 遷移至 AWS 雲端環境的策略與實施。 • 建構數據自動化流程: 設計、開發並維護高效、穩定的財務數據 ETL/ELT pipeline,實現日常業務報表與分析報表的全面自動化。 • 數據架構優化與創新: 持續學習並導入先進的資料領域知識與技術(如 DataOps、FinOps 概念),優化現有數據架構,提升數據處理效率與品質。 • 跨部門協作與溝通: 深入理解財務部門需求,並能將複雜的技術概念清晰地傳達給非技術背景的同仁,共同推動專案進程。 • 數據專案開發與管理: 負責數據相關專案的設計、開發與維護,包含 Datalake 管理、資料收集、清洗、儲存等關鍵功能,確保數據的完整性、一致性與可用性。 • 文件撰寫與知識傳承: 撰寫清晰的開發文件 (Design Document, ERD, Diagram, User Manual),確保專案知識的有效傳承。 【我們期待您具備】 • 精通 SQL,具備大規模集中/分散式資料庫的 CRUD 操作、效能優化及資料清洗 (ETL/ELT) 實戰經驗。 • 豐富的 Python 資料工程開發經驗,熟悉並應用 pandas, numpy, pyspark 等核心套件。 • 具備 AWS 雲端平台 (例如 S3, EC2, Lambda, Glue, Redshift, Athena 等服務) 與 Databricks 的實務開發經驗。 • 具備 Data Pipeline (資料流) 的設計、搭建與優化能力,熟悉 Dagster 或 Airflow 等排程工具。 • 5 年以上資深資料工程師或相關經驗,並具備獨立主導專案的能力。 • 卓越的需求訪談與業務邏輯理解能力,能將複雜的技術概念清晰地傳達給非技術背景利害關係人。 • 具備良好的溝通協作能力,主動積極解決問題,並樂於分享知識。 【符合以下條件,將是您的優勢】 • 具備財務金融相關專業知識或在金融科技產業的資料工程經驗。 • 對 DataOps 或 FinOps 理念有深入理解與實踐經驗。 • 熟悉 Linux 操作與 Shell Script。 • 具備 資料視覺化工具 (Tableau、PowerBI) 實務經驗。
應徵
10/21
FPT_艾福提資訊有限公司電腦軟體服務業
台北市信義區5年以上學歷不拘
Build a universal data platform, meet real-time/offline computing and storage requirements; Define the data pipeline scheme according to the demand scenarios, and deliver it by multiple methods based on various infrastructure; Enhance the data platform, improve the stability and flexibility of data asset, and optimize the resource efficiency.
應徵
10/22
台北市松山區3年以上大學
Position Impact: The Data Engineer is responsible for designing, building, and maintaining data solutions that ensure data is accessible, reliable, and scalable across the company. This role involves working with large-scale databases, identifying hidden risks, and developing solutions that enhance data performance and quality. You will collaborate closely with backend engineers, other data engineers, and product managers to deliver data solutions that align with business objectives. Responsibilities: • Design database structures, schema, and a management database to support high-performance data analytics. • Build dashboard and report interfaces that increase data accessibility to deliver actionable insights to stakeholders to find solutions. • Build up the prediction model to identify and monitor key performance metrics. • Build data tools that boost team working efficiency. Requirement: • Bachelor's degree in Computer Science, Information Management, Statistics or related fields. • 3+ years relevant experience in data engineering or backend development. • Proficiency in Python or Java for building scalable data pipelines or backend services. • Strong knowledge of SQL (query optimization, indexing) and database design principles. • Good communication skills and ability to work cross-functionally with technical and non-technical teams. • Strong analytical and problem-solving skills paired with the ability to develop creative and efficient solutions. Advanced Qualifications • Experiences with Tableau, Starrocks, Flink CDC, or Hadoop will be a plus.
應徵
10/27
域動行銷股份有限公司廣告行銷公關業
台北市松山區1年以上大學以上
公司介紹: 域動行銷是中華電信集團轉投資公司之一,成立於2009年,致力於提供創新的數位廣告解決方案,當中包含廣告系統DSP、SSP、CDP、混血數據及廣告聯播網等,我們通過創新的行銷技術解決方案來推動廣告和數據分析的發展,同時專注於行銷科技領域,提供前瞻性的觀點,引領數據行銷的未來。 組織介紹: 域動Data Team是由一群對『數據分析』及『AI應用』具有研究及開發熱誠的成員所組成。在這裡你可以接觸到大量即時的使用者行為資料,並將資料科學模型應用於: 『網路廣告投放優化』 『網路用戶辨識』 『消費者行為分析』 我們更致力於尋找優化方案,改善產品體驗設計及為商業決策提供數據支持,提升效率和價值。我們鼓勵組員多方嘗試、思考、展現天馬行空的創意,且能清楚闡述想法,付諸實踐。 【Job Description】 • 須熟悉python, 尤其是對pyspark操作有經驗 • 具備優化資料流和處理效率的專業知識,以及處理每日一億筆記錄的資料吞吐量的經驗 • AWS、GCP 等雲端平台的實務經驗 • 熟練開發強大的data pipeline,包括資料收集和 ETL(擷取、轉換、載入)流程 • 具備設計和實施資料平台各種元件的經驗,包括資料攝取、儲存、資料倉儲、資料編排 • 持續整合和持續部署(CI/CD)流程的經驗 【Qualifications】 1. 熟悉 ML 相關知識 2. 熟悉Python程式語言,以pyspark模組為主 3. 熟悉Linux 系統操作 4. 熟悉資料庫程式語言 SQL 【Preferred Qualifications】 1.具備機器學習平台經驗,例如 KubeFlow、MLflow 或 Vertex AI 2.具備API設計與實作經驗 3.具備使用 AWS Kinesis、Spark Streaming 等串流工具的經驗 4. 具有數位廣告相關經驗 6. 具有分散式運算的相關知識,如 Spark、Hadoop、Hive 7. 有使用過GCP, AWS 等雲端服務經驗佳 【加分項目】 熟悉scale, JAVA 熟悉資料湖相關技術 統計學專長
應徵
10/21
台北市大安區1年以上專科以上
【工作內容】 1.應用服務開發與維護 開發與維護數據應用服務(API),確保業務服務穩定運行。 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 建立與管理 CI/CD Pipeline,提升開發與部署效率。 持續監控服務效能,進行問題排查、升級與最佳化。 【技能需求】 1.熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 2.熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 3.了解容器化技術(Docker、Kubernetes)。 4.了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【加分項目】 1.具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 2.具備 Terraform 或其他 IaC 工具經驗。 3.具備 DevOps / Cloud Engineer 相關工作經驗。 4.具備網路/資訊安全管理經驗。 5.具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/21
台北市松山區2年以上專科以上
我們正在尋找一位熱情且富有才華的資料工程師,加入我們的團隊,協助解決廣告投遞的資料內容。在這裡有大量的數據供你發揮所長,將學過的知識及方法應用到實務的工作上。 我們希望你具備以下三大特質: 對資料工程領域有強烈興趣和熱情 。 重視團隊合作,具備良好的溝通能力 。 具有自我學習能力,能夠快速適應新技術。 職責: 資料取得 - 串接內外部廣告資料,必要時設計和構建資料倉儲系統。 資料清洗 - 進行資料格式的清理、轉換和處理,確保資料品質。 資料分析 - 運用統計和機器學習技術進行深入分析,提供有價值的洞察。 資料視覺化 - 若有需要,根據分析的數據提供統計圖表或報告。 程序開發 - 根據業務需求設計、開發和優化資料處理流程和模型。 系統維護:持續監控、維護和優化現有的資料系統和流程。 具備 2 年以上相關領域的開發經驗 ◆ 精通 Python 程式設計 ◆ 熟悉 Git 版本控制 ◆ 具備以下至少一種資料庫使用經驗:SQL、NoSQL、Redis、BigQuery ◆ 基本 Linux 操作概念、Shell script ◆ 學習新工具的能力、樂於學習的精神。 ◆ 重視程式可讀性、效能、安全性、可靠度。
應徵
10/24
居家先生股份有限公司建材/傢俱零售業
新北市新莊區2年以上大學以上
1.設計與維護數據管道(Data Pipeline) -建置、優化並維護 ETL 流程,確保數據從多個來源正確、即時地整合至數據平台。 -處理資料清洗與轉換,確保資料品質與一致性。 -撰寫與優化 SQL 查詢與資料處理腳本,提升查詢效能與可維護性。 2.數據視覺化與報告支援 -與數據分析師合作,開發儀表板與視覺化報表,協助業務即時掌握指標與決策依據。 -支援數據探勘與分析報告製作,提供穩定可靠的數據基礎。 3.數據平台效能與安全性管理 -監控與優化資料處理流程效能,提升系統穩定性。 -建立資料安全機制,確保資料隱私與合規性。 4. 跨部門協作與持續改善 -與內部開發、分析及業務團隊合作,瞭解數據需求並進行系統分析與設計。 -撰寫技術與需求規格文件,確保專案溝通順暢。 -持續關注新技術趨勢,推動團隊技術升級與流程最佳化。 我們是一個扁平溝通、快速決策的數據團隊,面對需求變動與技術演進,我們重視 每位夥伴的思考與主動性,歡迎具備以下特質的你加入: ◎重視細節,具備資料品質控管的高度敏感度 ◎邏輯清晰,能獨立分析問題並提出有效解法 ◎喜歡與不同角色協作,擅長用非技術語言解釋技術概念 ◎適應快節奏環境,能在變動中保持效率與穩定 ◎對資料工程與雲端技術具備高度興趣,樂於自我學習與精進 ◎有責任感,理解資料安全與隱私的重要性 [必要條件] ◎ 具備至少 1-2 年以上相關經驗 ◎ 熟悉SQL、具備(MySQL、BigQuery) 開發使用經驗 ◎ 熟悉 Looker 儀表板設計 ◎ 具備使用 Google Cloud Run部署應用或資料處理流程 ◎ 熟悉Any Message Queue Software(如 Kafka、 Google Pub/Sub 等)能處理資料串流 ◎ 會基礎 Linux 操作 ◎ 具備 Git 版本控制相關使用知識 [以下是很棒的加分條件] ◎ 具備使用NIFI、PHP、Python經驗
應徵
10/23
台北市中正區1年以上專科以上
Junior analyst based in Asia covering technology stocks - advanced excel modeling skills - fluent in English and mandarin - good communication skills with portfolio manager - open minded and willingness to adapt to fast changing environment. *Please attach your English resume when you apply this position.(請在104檔案附上您的英文履歷)* This position requires on-site work only. Please ensure you are able to attend the interview in person.(僅有實體面試,且此職位非遠距,請確保您能配合再投遞履歷)
應徵
10/21
台北市內湖區1年以上大學
工作內容: • Designing and maintaining cloud-based data warehouse, including data collection, modeling, and storage. • Maintaining batch and streaming pipelines, ensuring data quality. • Developing data APIs based on product requirements and deploying them to Kubernetes using Gitlab CI/CD. • Understanding user needs and handling data retrieval and dashboard support tasks. • Continuously learning, optimizing data architectures, and introducing new technologies.
10/23
台北市松山區1年以上大學
COMMEET (https://commeet.co) 擴大徵才,歡迎有熱情之新夥伴加入我們的行列 [工作內容] 1 整理、標記數據,以確保數據的準確性與可靠性 2 建立/維護/優化資料處理流程與架構(data pipeline) 3 跟相關的stakeholder合作,解決並優化他們的數據需求 4 其它主管交辦事項。 [必要條件] • 從業人員恪守客戶個資保護敏感度及尊重客戶資料隱密性 • 熟悉 ML/DL • 熟悉 python 語言與相關資料庫 (csv、postgres、redis、excel) • 熟悉圖表可視化(Visualization),以及圖表分析能力 • 熟悉 git 版本控制 • 如線上初試通過者,將安排線下複試,複試安排 leetcode [加分項目] • 具有 OCR 處理數據經驗 • 有kaggle 等競賽平台經驗 • 有新創公司經驗 • 有FinTech 或 ERP/CRM 經驗 [人格特質] • 獨立作業的能力 • 細心負責任 • 勇於溝通,樂於表達自己的想法 • 喜歡主動學習新技術,願意與團隊研究及分享技術新知
應徵
10/21
沛然資訊有限公司電腦軟體服務業
台北市內湖區3年以上碩士以上
Risksoft Technology Ltd, 沛然科技有限公司專注於金融科技(FinTech)與應用,致力於將金融數據與決策模型轉化為高效、且行動的專業工具。 客戶涵蓋銀行、券商、量化基金、私募機構與企業財務部門,產品應用於資產配置、風險監控與跨市場操作等關鍵場景中。我們開發可用於決策的高互動行動應用,誠摯邀請對產品品質與金融邏輯有熱情的夥伴加入我們的團隊。 【工作內容】 1. 台清交成資工系學碩士優先 2. 優秀IT科技理工且對量化投資有興趣者 3. 負責開發、建設及管理公司資料基礎架構,協助團隊實現數據的收集、處理及儲存,確保資料的可用性、準確性和安全性 4. 設計並實施高效的資料管道(ETL流程) 5. 管理並維護資料庫和資料存儲系統 6. 資料整合與處理,包括從多個來源收集資料並轉換為可分析的格式 7. 協作開發數據基礎設施,支援資料科學家和分析師的需求 8. 進行資料的清洗、變換及加載,確保數據質量 9. 與產品及技術團隊合作,確保資料架構的擴展性與穩定性
應徵
10/21
台北市內湖區3年以上大學以上
【工作內容】 1. 負責推薦、搜尋平台系統的資料流設計,並協助開發滿足相關數據產品發展的需求,協助業務團隊發揮數據商業價值 2. 與資料科學家、演算法工程師、資料分析師等,協作開發推薦、搜尋引擎模型,進行機器學習、深度學習之模型自動化、模型服務架構設計、開發與維運 3. 優化系統 Data Pipeline 處理海量用戶互動事件 4. 關聯式與非關聯式資料庫的DB Schema 設計與效能優化 5. 開發與線上環境橫跨雲地架構,使用到的技術包含但不限於 GCP、Linux、Docker、PostgreSQL、Redis、BigQuery、Spark、Machine Learning。 6. LLM應用開發,開發及優化基於大語言模型之應用 7. 支援跨部門、跨業務單位的數據整合任務 【技能要求】 1. 熟悉 Java 或 Python 語言開發 2. 設計與優化資料庫經驗並熟悉 SQL 語法 3. 熟悉Redis應用 4. 熟悉使用 git 進行程式版本控制 5. 良好的文件撰寫能力 【加分項目】 6. 具大量資料與具擴展性的系統處理經驗,如 BigQuery / Apache Spark 7. 熟悉一種主流雲端平台(GCP、AWS)的使用與管理 8. 具有MLOps相關經驗,如AI模型容器化、部署、版本控制和品質監控,測試模型性能(質量,延遲,負載處理)的經驗。 9. 使用Kubernets,Triton Inference Server經驗 10. 具備數位推薦、搜尋、廣告或電商產業領域知識
應徵
10/23
果友科技有限公司電腦軟體服務業
台北市大安區1年以上學歷不拘
我們正在尋找一位具備後端思維的數據工程師,與企業客戶的產品與分析團隊合作,打造高品質的數據供應與自動化環境。 你的主要任務是確保數據能穩定流動、被正確處理與自動化運作,成為支撐企業決策與AI應用的堅實基礎。 【工作內容】 1. 設計、開發與維護數據流程(Data Pipeline),打造穩定且高效的數據基礎架構 2. 使用 Python(pandas、numpy 等)進行數據清理、轉換與處理 3. 建立與維護 ETL 流程,確保資料品質、完整性與可追溯性 4. 建置與串接 API 與外部資料源,整合成統一的資料服務 5. 將數據處理流程自動化,並協助部署至雲端或容器化環境(如 Docker) 6. 需「派駐」至健康管理企業現場,協同客戶團隊實作與優化數據架構 【必備技能】 - Python:具備後端開發與數據處理能力,熟悉 pandas、numpy 等數據處理套件 - API 建置與整合:具備 FastAPI 建置與類似框架設計與串接經驗 - 資料流程思維:能理解資料從來源到應用的完整流向,具備基礎 ETL 概念 【加分技能】 1. 熟悉 Docker 或其他容器化技術,能協助部署與環境管理 2. 熟悉雲端平台(AWS、GCP、Azure等),具雲端自動化部署經驗 3. 擁有資訊工程、資訊管理、數學、統計相關背景者尤佳 【我們的願景】 加入果友科技,與我們一起用數據創造影響力。 這裡是讓你深入理解企業實際運作、與資料應用團隊並肩打造自動化數據服務的最佳舞台。 有興趣歡迎投遞履歷或直接聯繫我們,期待你的加入!
應徵