104工作快找APP

面試通知不漏接

立即安裝APP

「Data Engineer」的相似工作

OpenNet_開網有限公司
共503筆
精選
佳燁資訊有限公司電腦系統整合服務業
台北市大安區2年以上專科以上
工作內容 【工作內容】 1. .NET系統軟體程式設計與開發 2. 配合需求進行系統開發&測試時程安排 3. 配合公司需要,開發/維護適用之系統,了解客戶需求並轉化為功能需求 4. 系統分析及規劃 【必要條件】 1. 技術語言和框架開發軟體系統的經驗 2. 主動、積極,負責任感,重視團隊溝通合作 3.熟悉 ASP.NET Core 開發架構 4.熟悉 MVC 架構 5.熟悉 MS SQL、SQL SERVER 操作 6.熟悉 jQuery、javascript、CSS、HTML
應徵
精選
台北市中山區經歷不拘大學以上
1.負責資訊系統之程式開發、單元測試撰寫、功能測試 2.負責資料庫程式開發與維護 3.負責系統開發相關文件撰寫 4.負責系統維護管理與功能更新 5.負責程式資安議題處理及修正 6.新技術構建評估及導入 7.其他主管交辦事項 104僅供職缺參考,若您對此職缺有興趣,請至本行「玉山菁英甄選網站」投遞履歷。如書審通過,後續將邀請您參加面談。【投遞網址:https://esnhr.pse.is/394b2n】
應徵
精選
宏穩投資股份有限公司其他投資理財相關業
台北市信義區3年以上大學
【工作內容】 • 參與證券交易相關系統之開發與維護(C# / .NET / C++) • 與交易員合作開發與維運交易策略程式 • 負責功能測試、效能測試、系統穩定性確認 • 協助主管與工程團隊完成日常技術任務 【我們希望你具備】 • 3 年以上軟體開發經驗 • 熟悉 C# or C++ • 熟悉windows系統 • 對金融或交易系統有興趣 • 能獨立負責任務,同時具備團隊合作能力 • 追求卓越,注重細節,對成果負責。 【加分項目】 • 熟悉股票/期貨的交易流程 • 具股票/期貨策略程式開發經驗(如:接收券商行情/介接券商API下單...等)
09/02
株式会社シエス情報電腦系統整合服務業
日本3年以上大學以上
招募台灣地區工程師 公司提供簽證的更新以及新規簽證。 可提供高度人才簽證(5年)額外加20分,提早取得永久居留權。 執行案件為一般商業、金融案件居多,會派至委託公司駐點或在宅。 【工作內容】 1.負責軟體之分析、設計以及程式撰寫。 2.規劃執行軟體架構及模組之設計,並控管軟體設計進度。 3.進行軟體之測試與修改。 4.規劃、執行與維護量產的產品。 5.協助研發軟體新技術與新工具。 【工作職缺】Python軟體開發工程師(工作經驗三年以上) 【徵求條件】JAVA,NET,C#C,C++,Python,salesforce,SAP,PHP,IOS,Android,AWS,React.Ruby.C# (其中有一至兩項擅長的項目歡迎詢問) *無日文N1以上(可無檢定證書,但需聽說讀寫流利)請勿投遞履歷,國外遠端工作不可* 【工作地點】日本關東地區 【工作時間】9:00-18:00 中午休息1小時(依客戶現場為主) 【公司制度】1.提供雇用保險、健康保險、年金保險 2.完全週休2日、GW/夏休/年末年始連休 3.工作產生的交通費實報實銷 4.一年一度健康檢查
應徵
09/02
群越廣告科技有限公司電腦軟體服務業
台北市松山區3年以上大學以上
我們尋找一位資料敏銳度高、擁有穩健工程實作力的資料工程師,加入我們的遊戲推薦系統開發團隊! 這個職位非常適合熟悉 資料處理流程、具備 API 設計與部署經驗、懂得 推薦模型訓練實務,並熱衷於將 AI 技術應用在真實產品場景中的人才。 你將參與我們打造高效能推薦系統的核心挑戰之一:處理高頻率、多次存取的推薦查詢問題(Multiple Access / Frequent Access Patterns)。在實務上,推薦系統需支援大量使用者在極短時間內反覆觸發推薦請求(如首頁刷新、排行榜滑動、活動推薦等),對於資料快取策略、查詢優化、線上/離線計算資源分配都提出極高要求。 我們期望你能透過設計 穩定高效的資料管線與特徵服務(Feature Store),結合良好的 API 封裝,確保推薦服務在多次存取場景下依然具備良好延遲控制與回應品質,讓系統在真實流量下穩健運作、持續為玩家提供個性化、即時的推薦體驗。 線上視訊筆試,請 share screen 解題: Python 操作 SQL 語法(PyMySQL) Flask API 封裝與邏輯設計 Numpy 矩陣操作與轉換 Multithreading 多執行緒概念與應用 PyTorch 假碼撰寫與推薦演算法說明 必備條件(務必具備): Python 資料處理能力強,熟悉生態系統:pandas、numpy、pyMysql、SQLAlchemy 熟練 SQL 查詢與資料倉儲操作,具備處理大型資料集的經驗 實際操作過 Flask API 設計與服務包裝 理解推薦系統與分類/排序模型的運作,具備實作經驗 熟悉模型部署工具,例如 Flask / FastAPI、joblib、ONNX、MLflow 等 具備跨部門溝通能力與資料產品思維,能獨立拆解與解決資料問題 加分條件(非必要,但會加分) 使用過雲端資料平台:BigQuery、Snowflake、Redshift 有推薦模型訓練與優化經驗:如 DNN-based 矩陣分解、Pairwise Ranking、Embedding 模型 熟悉 強化學習、Bandit Algorithm 在推薦系統中的應用 曾設計過 AB test 並執行評估分析 實作過 Feature Store、推薦 pipeline 框架設計經驗
應徵
08/28
台北市松山區1年以上大學
COMMEET (https://commeet.co) 擴大徵才,歡迎有熱情之新夥伴加入我們的行列 [工作內容] 1 整理、標記數據,以確保數據的準確性與可靠性 2 建立/維護/優化資料處理流程與架構(data pipeline) 3 跟相關的stakeholder合作,解決並優化他們的數據需求 4 其它主管交辦事項。 [必要條件] • 從業人員恪守客戶個資保護敏感度及尊重客戶資料隱密性 • 熟悉 ML/DL • 熟悉 python 語言與相關資料庫 (csv、postgres、redis、excel) • 熟悉圖表可視化(Visualization),以及圖表分析能力 • 熟悉 git 版本控制 • 如線上初試通過者,將安排線下複試,複試安排 leetcode [加分項目] • 具有 OCR 處理數據經驗 • 有kaggle 等競賽平台經驗 • 有新創公司經驗 • 有FinTech 或 ERP/CRM 經驗 [人格特質] • 獨立作業的能力 • 細心負責任 • 勇於溝通,樂於表達自己的想法 • 喜歡主動學習新技術,願意與團隊研究及分享技術新知
應徵
09/04
台北市大安區1年以上學歷不拘
我們運用新型金融科技,致力於推動資產管理的發展,與各產業進行策略合作,確保受託資產得到妥善管理和運用,提供投資人多元的基金商品選擇,創造更高的資產價值。 團隊擁有多樣化思維,透過多維角度思考如何透過數據在投資決策、風險管理和客戶服務中進行應用。 1. 使用 Python 開發與維護 ETL 資料處理程式。 2. 使用 PySpark 開發分散式資料處理程式,藉此處理大規模資料量級。 3. 使用 Python 開發機器學習或深度學習的模型訓練、預測程式。 4. 實現容器化部署(Kubernetes)。 5. 實現湖倉一體(Lakehouse)與存算分離架構。 【必要條件】 1. 1 年以上資料工程或資料分析經驗,具備資料處理或資料分析的程式開發能力。 2. 具備 Python 軟體開發或資料處理經驗。 3. 具備 Linux 系統的基礎知識及操作經驗。 4. 具備 SQL 語法及操作資料庫的基礎知識及經驗。 5. 具備開源資料處理工具的使用經驗。 6. 對分散式系統(如 Spark)或容器化技術(Docker)有基本認知。 7. 對 Kubernetes(或 OpenShift)感興趣。 8. 具備快速學習新技術的意願與能力且具備問題解決能力與團隊合作精神。
應徵
09/03
幣託科技股份有限公司電腦軟體服務業
台北市松山區2年以上大學
關於BitoGroup ◆ 隨著全球區塊鏈與加密貨幣產業市場的增長,幣託正處於快速成長狀態。為持續提供更安全及更好的用戶體驗,幣託近兩年持續擴編,並誠摯邀請像您一樣,能一同作戰、且有開創心態的人才。 ◆ 如果您也擁有金融商品開發經驗、樂於挑戰創新並擁抱變化,非常歡迎您加入幣託團隊大家庭,一起打造屬於全民的加密貨幣投資平台! 【職務說明】 -開發並維護資料倉儲,與各團隊合作進行用戶、交易及第三方數據整合,驅動集團決策 -具備全端資料工程能力,從規格定義、數據處理、數據分析到視覺化交付,完成資料需求循環 -密切關注資料工程生態圈,根據團隊階段選擇合理工具與架構,持續演進 -於資料工程中實踐軟體工程方法,強化服務之可用性、安全性與可運維性 【職務要求】 ◆ Essential -3年以上程式開發或數據處理相關經驗(含專題研究)/ (Senior 要求) 3 年以上資料工程相關工作經驗 -分散式資料處理:Apache Spark, Apache Flink, Generic SQL -關聯式資料庫管理與結構設計:MySQL, PostgreSQL -第三方API串接:RESTful, WebSocket ◆Nice-to-have -數據湖開發,半結構化資料管理:Apache Iceberg、 Apache Doris -容器化與部署:Docker, Kubernetes -AWS相關服務建置:Glue, S3, Athena, IAM -商業智慧平台操作:Tableau, Metabase -Change data capture管線開發:Debezium, Kafka Connect -網頁爬蟲程式開發:Python -機器學習建模經驗:Pytorch, Tensorflow, Scikit-Learn
應徵
09/04
葳誠科技有限公司電腦系統整合服務業
台中市西屯區3年以上大學以上
固定駐點在外商客戶端(不會變更) 目前急需的是地端環境(SQL SSIS)需要能馬上上手 主要職責: 產業Knowhow 可以訓練,職務需求技能需熟練,能依照指示獨立作業 · 與(客戶端用戶)合作,定義滿足業務需求的要求,同時遵守全球標準和實踐 · 開發和設計視覺化製造智慧解決方案,包括在 Power BI 中開發儀表板、Microsoft Analysis Services 以支援 KPI 的製造營運和效能指標相關分析 · 開發自動化、整合、清理和維護製造資料來源品質和完整性的 ETL · 根據業務分析需求設計資料模型和資料架構。整合各種資料集並建立視覺化資料模型 · 與業務用戶進行資料驗證,編寫測試腳本並記錄缺陷 · 支援營運任務進行問題/請求管理和維護,制定並實施解決問題根本原因的解決方案 · 監控和解決與數據相關的問題,及時提供解決方案和支持,以最大限度地減少停機時間和中斷 所需技能: · 本科以上學歷(資訊科技、電腦科學、軟體工程、工業工程、應用數學、統計學、管理學) · 擁有 3 年使用 Microsoft SQL Server Business Intelligence Development Studio(SSIS、SSRS、SSAS、Power BI)和資料倉儲管理的經驗 · 具備 3 年商業智慧等級職位(分析、商業智慧或儀表板經驗)經驗 · 擁有在全天候製造環境中使用 IT 系統的經驗 · 具有推動和提供新功能以改善業務部門營運的經驗,這些營運符合既定標準和整體 IT 策略方向 · 強大的溝通、演示、組織和協調能力(包括在業務和技術需求之間「轉化」的能力) · 具有良好的持續確定優先順序和高效處理多任務的能力。 · 具有良好的團隊合作精神,人際溝通能力強,並能獨立工作 · 具備良好的中英文口說、寫作及演講能力,TOEIC 600分以上 所需技能: · 了解製造流程和製造執行系統 · 具備 Python 或 R 經驗者優先 · 微軟認證等業界認可的認證 · 商業智慧知識:SQL、Power BI、Tableau · 擁有實施滿足業務需求且技術完善的 IT 解決方案的良好記錄。 · 了解專案生命週期和應用程式生命週期方法。 · 能夠根據經驗和對專案策略意圖的理解,以批判性思考影響決策 Key Responsibilities: · Collaborate with business users to define requirements that meet business needs while adhering to global standards and practices · Develop and design visual Manufacturing Intelligence solutions, including developing dashboards in Power BI, Microsoft Analysis Services for KPI's supporting manufacturing operational and performance metrics related analytics · Develop ETL that automate, integrate, cleanse, and maintain manufacturing data source quality and integrity · Design data models and data architecture based on business analysis requirements. Integrate various datasets and build data models for visualization · Perform data validation with business user, write test scripts and record defects · Support operation tasks in conducting issue/request management and maintenance, develop and implement resolutions that address the root cause of problems · Monitor and troubleshot data-related issues, providing timely resolution and support to minimize downtime and disruption Required Skills: · Bachelor’s Degree above (Information Technology, Computer Science, Software Engineering, Industrial Engineering, Applied Mathematics, Statistic, Management) · 2 years of experience using Microsoft SQL server Business Intelligence Development Studio (SSIS, SSRS, SSAS, Power BI) and data warehouse management · 2 years of Business Intelligence level role in Analytics, Business Intelligence or Dashboards experience · Experience working with IT systems in a 24/7 manufacturing environment · Experience in driving and delivering new capabilities to improve business unit operations that are in keeping with established standards and the overall IT strategic direction · Strong communication, presentation, organizational and facilitation skills (including ability to “translate” between business and technology needs) · Good ability to continuously prioritize and multitask efficiently. · Good team player with interpersonal skills and the ability to work independently · Good English & Chinese communication in speaking, writing and presentation, TOEIC 600 and above Desired Skills: · Knowledge of manufacturing process and manufacturing execution systems · Experience with Python, R is a plus · Industry-recognized certification such as Microsoft certification · Business Intelligence Knowledge: SQL, Power BI, Tableau · Proven track record of implementing IT solutions that meet business demands and are technically sound. · Knowledge of project life cycle and application life cycle methodologies. · Ability to influence decisions with critical thinking based upon experience and understanding of the strategic intent of the project
應徵
07/11
炬識科技股份有限公司電腦軟體服務業
台北市中山區1年以上大學
炬識科技(Athemaster)2024.05 宣布,推出全新資料品質產品「Athemaster DQSentry」,幫助企業掌控真實資料品質,將企業資料產製成具更高商業價值的企業專屬大型語言模型等資料產品,加速AI數位轉型進程。 ▎你想知道的 Athemaster: 請前往:https://linktr.ee/athemaster ▎Athemaster | 你會遇見這10種生活方式 https://reurl.cc/koZGGr ▎Why Join Us ● 2種開發模式:瀑布 & 敏捷 雙刀流 [ 獲台灣敏捷協會 2024 敏捷大賞獎 ] ● 5種職系任你混搭搭配:每年依照個人意願打造專屬的成長路徑與職涯,不是工作量增加,而是組合技增加。 ● 25堂阿基米德創客間:雙週五的固定學習講座課程,來自內部6個社群與聘請外部講師共學。 ● 98% 以上機率可以 Work & Life Balance:此為所有專案成員的共同目標,並且認真執行。 ● 200個以上的學習資源:包含線上課、電子書、實體書及多樣化的學習方式。 ▎Job Description 參與內外部專案,幫助企業客戶運維 Data infra(資料基礎建設)、研發 Data pipeline(資料管線) 與 Data products(資料產品),整合與提升企業商務系統,以滿足 Data-Driven 數據驅動之轉型目標。並與團隊一起發展 Athemaster 2.0 data project 方法論。 ▎主要工作內容 - Data pipeline 設計 - Data pipeline 程式撰寫與測試 - Data pipeline 部署與維運 - Data products 之運維(Data Products:例如資料表、演算法(模型)、API、儀表板或應用系統) ▎我們希望你有的經驗跟特質 - 對 Data-Driven Business 和 Data Engineering 有極大的熱情。 - 了解架構資料平台所需的相關技術,例如 RDBMS, NoSQL DB, Search Engine, Data Warehouse, Event Streaming Platform 等。 - 有 ETL 或資料分析案之專案經驗。 - 樂於與團隊互動、與客戶合作,並回應變化,願意了解客戶產業的領域知識以開發可用的軟體。 - 認同溝通的雙向性,職務內所需之訊息主動聽取、提出必要問題以正確理解,不依靠他人作為自己的眼睛、耳朵與嘴巴。 - 認同權限與責任對等原則,尊重擔負責任者經共識活動後的最終決策,並接受自己角色範圍內的指派。 - 認同角色範圍內個人能力應穩定輸出,達成預期之客戶價值。認同喜好或優先於團隊的個人考慮並非挑撿任務之合理原因。 - 樂於學習最新的技術,隨時充實自我的專業技能。 ▎應徵條件 - 熟悉 Python 程式語言。Athemaster主要用 Python & Java。 - 熟悉至少一種 SQL **與** NoSQL 資料庫的運用。例如 MySQL、PostgreSQL、Mongo 任一種。 - 具有分散式運算的相關知識。例如 Spark、Hadoop、Hive、impala、kafka等。 - 熟悉 Git, Jenkis, Airflow 等 Data Pipeline 開發關聯系統之使用。 - 至少 3 年工作經驗 - 1 年以上擔任 Data Engineer 角色參與專案之經驗,並熟悉 ETL 流程 ▎加分條件 - 願意參與 Data infra 維運(Data Infra:各種儲存結構化或半結構化資料的系統)。 - 願意參與運維最佳化系統效率與穩定度,架構高速、穩定且容易擴充的計算平台。 - 具有使用 NoSQL 的實務經驗。例如 HBase、Cassandra、Redis、MongoDB 等一種或多種相關技術。 - 具有使用 Streaming 資料處理系統的實務經驗。例如 Spark-streaming、Kafka、Flink 等。 - 具有使用 ETL Tool 資料整合工具的實務經驗。例如 Informatica, NiFi, Pentaho 等。 - 熟悉任一種視覺化工具。例如 Tableau, Power BI, Redash 等。
應徵
09/08
沛然資訊有限公司電腦軟體服務業
台北市內湖區3年以上碩士以上
Risksoft Technology Ltd, 沛然科技有限公司專注於金融科技(FinTech)與應用,致力於將金融數據與決策模型轉化為高效、且行動的專業工具。 客戶涵蓋銀行、券商、量化基金、私募機構與企業財務部門,產品應用於資產配置、風險監控與跨市場操作等關鍵場景中。我們開發可用於決策的高互動行動應用,誠摯邀請對產品品質與金融邏輯有熱情的夥伴加入我們的團隊。 【工作內容】 1. 台清交成資工系學碩士優先 2. 優秀IT科技理工且對量化投資有興趣者 3. 負責開發、建設及管理公司資料基礎架構,協助團隊實現數據的收集、處理及儲存,確保資料的可用性、準確性和安全性 4. 設計並實施高效的資料管道(ETL流程) 5. 管理並維護資料庫和資料存儲系統 6. 資料整合與處理,包括從多個來源收集資料並轉換為可分析的格式 7. 協作開發數據基礎設施,支援資料科學家和分析師的需求 8. 進行資料的清洗、變換及加載,確保數據質量 9. 與產品及技術團隊合作,確保資料架構的擴展性與穩定性
應徵
09/01
台北市信義區1年以上專科以上
1.設計、開發和維護可擴展的數據管道和ETL流程。 2.與數據科學家、分析師和利益相關者合作,了解數據需求並提供解決方案。 3.優化和改進現有數據系統,以提高性能和可靠性。 4.實施數據質量檢查,確保各類數據源的數據完整性。 5.開發和維護數據工程流程和系統的文檔。 6.關注行業趨勢和技術,不斷改進我們的數據基礎設施。
應徵
09/02
文境資科股份有限公司專門設計相關業
台北市大安區1年以上大學以上
Data Engineer/ 資料工程師 1.資料稽核(Data Auditing)、收集(Data Collection)、整合作業(Data Integration) 等資料分析前處理作業 2.有MS SQL server、SSIS、SSRS、SSAS ,或其他ETL工作經驗尤佳 3.具Stored Procedure、Python、.NET、Linux Shell 撰寫經驗 4.對醫療資料分析充滿熱情並具備程式開發之熱忱與積極性 5.以公衛、醫管、資管與統計相關科系優先
應徵
09/04
先悅資訊有限公司工商顧問服務業
台北市信義區2年以上專科
使用Trinity等工具開發ETL 熟悉SQL和StoreProcedure
應徵
09/03
烽泰科技有限公司其他金融及輔助業
台北市大同區3年以上大學
【工作內容】 作為集團數據策略的關鍵推手,您將有機會與集團IT團隊一同將財務數據從傳統架構轉型至現代化雲端平台 (AWS)。如果您渴望與頂尖數據專家、專案經理共同協作,並將資料工程、雲端、DataOps 技術應用於實際業務痛點,那麼這個職位正是您的最佳舞台! 我們的Sr. Finance DE將會與集團IT團隊合作,逐步將財務資料從地端VM搬遷至AWS雲端環境,並協助其他財務部同仁將日常業務報表、分析報表進行自動化。我們重視快速溝通與實際的專案交付! 在這裡,除了具競爭力的薪資與各種福利外,您還能與團隊內不同的夥伴們相互學習,追求技術成長。我們相信,透過透過實際的專案開發與新技術的學習與使用,才是讓團隊不斷進步與成長的動力! 【您需要做什麼?】 • 協助財務數據雲端轉型: 與集團 IT 團隊緊密協作,規劃並執行財務核心資料從地端 VM 遷移至 AWS 雲端環境的策略與實施。 • 建構數據自動化流程: 設計、開發並維護高效、穩定的財務數據 ETL/ELT pipeline,實現日常業務報表與分析報表的全面自動化。 • 數據架構優化與創新: 持續學習並導入先進的資料領域知識與技術(如 DataOps、FinOps 概念),優化現有數據架構,提升數據處理效率與品質。 • 跨部門協作與溝通: 深入理解財務部門需求,並能將複雜的技術概念清晰地傳達給非技術背景的同仁,共同推動專案進程。 • 數據專案開發與管理: 負責數據相關專案的設計、開發與維護,包含 Datalake 管理、資料收集、清洗、儲存等關鍵功能,確保數據的完整性、一致性與可用性。 • 文件撰寫與知識傳承: 撰寫清晰的開發文件 (Design Document, ERD, Diagram, User Manual),確保專案知識的有效傳承。 【我們期待您具備】 • 精通 SQL,具備大規模集中/分散式資料庫的 CRUD 操作、效能優化及資料清洗 (ETL/ELT) 實戰經驗。 • 豐富的 Python 資料工程開發經驗,熟悉並應用 pandas, numpy, pyspark 等核心套件。 • 具備 AWS 雲端平台 (例如 S3, EC2, Lambda, Glue, Redshift, Athena 等服務) 與 Databricks 的實務開發經驗。 • 具備 Data Pipeline (資料流) 的設計、搭建與優化能力,熟悉 Dagster 或 Airflow 等排程工具。 • 5 年以上資深資料工程師或相關經驗,並具備獨立主導專案的能力。 • 卓越的需求訪談與業務邏輯理解能力,能將複雜的技術概念清晰地傳達給非技術背景利害關係人。 • 具備良好的溝通協作能力,主動積極解決問題,並樂於分享知識。 【符合以下條件,將是您的優勢】 • 具備財務金融相關專業知識或在金融科技產業的資料工程經驗。 • 對 DataOps 或 FinOps 理念有深入理解與實踐經驗。 • 熟悉 Linux 操作與 Shell Script。 • 具備 資料視覺化工具 (Tableau、PowerBI) 實務經驗。
應徵
09/03
台北市信義區3年以上大學以上
Hi,勇者!我們是 Garena 的 Data Team,我們 Data 夥伴角色組織完善,為 Garena 海內外的遊戲規劃、建構並維護資料量達 PB 級別的全地端資料倉儲,並與數據分析師 (Data Analyst) 合作,將遊戲內各項有趣的數據交付各個遊戲營運單位,對遊戲的營運與公司的決策產生實在影響力。 ✨ 職務概覽:#台北市信義區市府捷運站(藍線)出站即達 #data #warehouse #ETL #pipeline #地端 #airflow #pyspark #infra ✨ 你將負責 ...... - 開發 batch/streaming data pipeline 應用在資料服務、報表系統。 - 瞭解遊戲營運單位的需求,量身打造易維護、可擴展的遊戲數倉模型 (data model),為數據分析師、資料產品、演算法產品提供技術支持。 - 不止於維護,還能設計、規劃並建立完整的數倉開發流程,包括:程式碼開發、發布部署、效能調優、提升資料品質等。 - 管理、維運數據集群服務,例如:Hadoop、Spark、Kafka 等相關服務,定期進行集群容量評估和數據治理。 ✨ 我們希望你具備 ...... - 開發語言:熟練 Python / Java / Scala 中至少一門開發語言,有紮實的程式設計基礎。 - Big data: Spark / Hadoop / Hive / Flink 等大數據分散式儲存與計算架構開發技術。 - 資料庫:MySQL - ETL 工具:Airflow - 作業環境:Linux - 對資料敏感,熱衷將業務與技術結合,以數據驅動業務發展。 - 優秀的溝通能力、跨團隊合作能力、較強的自驅力。 ⭐ 加分項目 ⭐ - 具備 Python 開發能力,對資料探勘 (Data Mining)、機器學習 (Machine Learning) 有了解者尤佳。 - 熟悉資料倉儲模型設計方法論,有遊戲產業數倉經驗尤佳。 - 熟悉 Clickhouse 尤佳。 - 曾以 AI 工具輔助工作尤佳。 ✨ 你知道嗎?Garena 的 Data Engineer 與其他公司的機會差異在於,你將從這份職務獲得 ...... \ 我不是獨自升級,我和團隊一起升級! / 我們的 Data 團隊負責處理 PB 級的數據量,讓你能在工作中累積處理海量資料的實務經驗。同時,我們崇尚開放的工作環境,鼓勵創新思維,提倡團隊而非孤單前行,討論最新的技術趨勢,並深信知識分享是成功的秘訣,你在這裡將擁有廣闊的舞台大展身手! \ 揪團打 game 不寂寞! / 我們這支勁旅充滿熱愛遊戲的夥伴,大家會分享最新最流行的手遊,也熱衷討論經典遊戲的成功秘訣!熱愛《傳說對決》的你,可以在午休時和組員五排打 game;如果你喜歡卡牌遊戲,團隊有 Pokémon TCG 和桌遊團隊陪你對戰! ✨ Garena 的 Data Engineer 都說…… - 經手數據量級大,在這裡迅速變更強! - 數據類型貼近你我普羅大眾生活,工作內容與生活連結度高! - 即時與非即時的數據皆能接觸到,數據類型有趣! - 工作文化開放、自主性高,不受限於年資提議想進行的專案! - 產出能影響企業商業決策,進行跨部門合作! - 平時便會對接國外團隊,體驗跨國企業工作感!
應徵
09/04
台北市內湖區3年以上大學
1.雲端基礎架構規劃、建置及部屬、維護 2.數據平台規劃、建置及部屬、維護 3.雲原生平台規劃、建置及部屬、維護 4.數據整理、清洗、建模及分析
應徵
09/01
創代科技股份有限公司工商顧問服務業
台北市中山區1年以上碩士以上
我們正在尋找一位 Mid-Level 的數據工程師 (Data Engineer),主要負責 資料庫建置、ETL 流程設計與開發、數據處理與分析。目前創代科技曾執行過的專案包含了 大型語言模型產品開發(涵蓋雲端、地端、雲地混合方案)、深度學習開發(產品洞察與行為預測、時間序列預測、路線最佳化)、機器學習應用(各產業客戶的資料探勘與分析)、數據中台建置(含資料正規化、ETL 建置、導入 dbt、snowflake)!我們現在手上有各種類型的專案等著你來玩! 為什麼選擇創代科技? 創代科技是一家提供數據科學顧問服務的公司,業務涵蓋 零售、交通、物流、航運、電信、能源、犯罪、災防 等多元領域,並持續拓展至其他前沿產業。在這裡,你將接觸到多樣化的數據場景,包括乾淨度各異的資料與高度客製化的架構設計,讓你在解決各種挑戰中快速成長。 如果你熱愛學習新技術、探索創新解決方案,那麼在創代擔任數據工程師,將是你的最佳選擇。 ✅ 【職責內容】 1. 資料庫設計:熟悉資料庫概念,協助建置與維護資料倉儲、資料湖跟資料中臺。 2. ETL 或 ELT 流程開發:協助客戶建立基於地端或是雲端的資料流架構,整合多元數據來源(結構化與非結構化),構建高效數據處理系統,確保資料一致性與完整性。 3. 數據處理與協作:與資料科學家、資料分析師及後端工程師協作,處理 Data Pipeline 建置及數據收集、探勘與轉換。 4. 協助客戶工具導入:協助客戶翻新原有 Pipeline,並導入 dbt、snowflake等。 ✅ 【我們期待你具備】 1. 學歷背景:具備碩士學位, 資訊工程、資訊管理、資料科學、數學、統計、電機相關領域加分。 2. 專業技能: - 熟悉數據處理與分析,具備 ETL / ELT 流程開發與維護經驗。 - 熟悉 關聯式資料庫(如 PostgreSQL)及 圖形資料庫(如 Neo4j),擁有資料倉儲建置與操作經驗。 - 熟悉 Linux 環境,並具備版本控制工具(如 Git)使用經驗。 - 熟悉 容器化技術(如 Docker、Kubernetes),了解其生產環境運行與管理。 - 具備 Airflow 排程管理及模型部署經驗。 ✅ 【加分條件】 - 雲端服務:熟悉 GCP、AWS、Azure,具備跨雲架構整合及服務部署能力。 - 分散式系統:有 Hadoop、Spark 開發經驗者尤佳。 - 資料庫工具:具備 dbt 或是 snowflake 導入或是使用經驗。 - DevOps 經驗:具備 CI/CD 自動化部署實作經驗。 - BI 工具:熟悉 Tableau、Looker、Power BI。 - 演算法基礎:理解機器學習、深度學習背後邏輯或是應用經驗。 ✅ 【薪資待遇】 - 面議,保障年薪 14 個月。 ✅ 【公司福利】 - 彈性上下班時間、彈性居家上班福利。 - 每月享有職員不扣薪福利假、生日當月再多一天生日假。 - 不定期員工聚餐、午餐、下午茶、出遊團康活動等。 - 公司零食區、冰箱飲料、咖啡櫃永遠補給充足,讓每位新進夥伴都保證先胖五公斤! - 保障年終獎金 2 個月,其他績效獎金還可以靠自己爭取,亦提供結婚、生育等各項禮金。 - 電腦設備:公司提供工作機,亦可自備設備並領取每月電腦補助費。 - 每年提供教育訓練補助。 - 提供定期健康檢查補助。 - 每年定期進行績效考核,讓職員的升遷與薪資調整更有依據與保障。 ✅ 此職缺定位為 Mid-Level,尋找 1 - 3 年經驗的人選
09/02
台北市中正區1年以上大學
[Job Description] •Develop and maintain a web-based system for financial data processing. •Implement P&L calculations, exposure tracking, and performance reporting over user-defined periods. •Integrate market data and indicators or signals from the quant team to support trading strategies. •Process and analyze external financial data sources/APIs (e.g., Bloomberg). •Ensure data accuracy, system stability, and performance optimization. •Maintenance and implementation of machine learning models. [Job Requirements] •Strong experience in backend development (Python(preferred), Node.js, or other relevant languages). •Proficiency in working with databases (SQL(preferred) or NoSQL). •Proficiency in creating and maintaining databases will be considered a plus. •Basic knowledge of frontend technologies (HTML, CSS, JavaScript) to support system integration. •Familiarity with financial markets and handling large datasets, also machine learning. •Experience in market data processing and familiarity with financial instruments is a plus. •Proficiency in written and spoken English and Chinese •Can work under pressure on ad-hoc projects *This position requires on-site test only. Please ensure you are able to attend the test in person. (僅有實體測驗,且此職位非遠距,請確保您能配合再投遞履歷) *Please provide an English resume.*
應徵
09/08
台北市內湖區1年以上大學以上
我們正在尋找對科技趨勢敏銳、樂於實驗的技術創新人才。你將成為旅遊科技部的技術推進引擎,結合 AI、前沿工具與跨領域思維,探索下一個改變旅遊產業的數位可能。 1. 介接並整合內外部資料來源,確保資料的高可用性與一致性 2. 設計、開發、測試與維護資料處理流程與管道(如 EDI、ETL) 3. 優化資料存儲架構與查詢效能,提升系統整體效能 4. 管理與優化資料管道排程,確保資料流穩定與準時更新 5. 執行資料治理機制,落實資料品質管理與監控 6. 與資料分析師與資料科學家協作,提供穩定且高品質的資料支持 7. 撰寫並維護相關技術文件,確保知識傳承與系統可維護性 8. 其他主管交辦事項 職務需求: 1. 關聯式資料庫: SQL Server 2. 非關聯式資料庫: MongoDB 3. 程式語言: C#、T-SQL 4. 工具: SSMS、SSIS、Power BI
應徵
09/02
域動行銷股份有限公司廣告行銷公關業
台北市松山區1年以上大學以上
公司介紹: 域動行銷是中華電信集團轉投資公司之一,成立於2009年,致力於提供創新的數位廣告解決方案,當中包含廣告系統DSP、SSP、CDP、混血數據及廣告聯播網等,我們通過創新的行銷技術解決方案來推動廣告和數據分析的發展,同時專注於行銷科技領域,提供前瞻性的觀點,引領數據行銷的未來。 組織介紹: 域動Data Team是由一群對『數據分析』及『AI應用』具有研究及開發熱誠的成員所組成。在這裡你可以接觸到大量即時的使用者行為資料,並將資料科學模型應用於: 『網路廣告投放優化』 『網路用戶辨識』 『消費者行為分析』 我們更致力於尋找優化方案,改善產品體驗設計及為商業決策提供數據支持,提升效率和價值。我們鼓勵組員多方嘗試、思考、展現天馬行空的創意,且能清楚闡述想法,付諸實踐。 【Job Description】 • 須熟悉python, 尤其是對pyspark操作有經驗 • 具備優化資料流和處理效率的專業知識,以及處理每日一億筆記錄的資料吞吐量的經驗 • AWS、GCP 等雲端平台的實務經驗 • 熟練開發強大的data pipeline,包括資料收集和 ETL(擷取、轉換、載入)流程 • 具備設計和實施資料平台各種元件的經驗,包括資料攝取、儲存、資料倉儲、資料編排 • 持續整合和持續部署(CI/CD)流程的經驗 【Qualifications】 1. 熟悉 ML 相關知識 2. 熟悉Python程式語言,以pyspark模組為主 3. 熟悉Linux 系統操作 4. 熟悉資料庫程式語言 SQL 【Preferred Qualifications】 1.具備機器學習平台經驗,例如 KubeFlow、MLflow 或 Vertex AI 2.具備API設計與實作經驗 3.具備使用 AWS Kinesis、Spark Streaming 等串流工具的經驗 4. 具有數位廣告相關經驗 6. 具有分散式運算的相關知識,如 Spark、Hadoop、Hive 7. 有使用過GCP, AWS 等雲端服務經驗佳 【加分項目】 熟悉scale, JAVA 熟悉資料湖相關技術 統計學專長
應徵
09/08
台北市內湖區2年以上大學以上
【工作內容】 1. 資料管道建置與維運: 設計、開發和維護高效、可擴展的資料管道,確保資料從各個來源可靠地流向資料倉儲、數據湖和資料分析平台。 2. 資料模型與整合: 熟悉資料倉儲和數據湖概念,根據業務需求進行資料建模、資料處理和資料整合,確保資料的準確性和一致性。 3. ETL/ELT 開發與優化: 熟練使用資料處理框架(如 Informatica、Airflow 等)進行 ETL/ELT 流程的設計、開發和優化,提升資料處理效率。 4. 雲端資料工程: 具備 Azure 或 AWS 雲端平台實務經驗,能夠在雲端環境中部署和管理資料工程解決方案,運用雲端服務提升資料處理能力。 5. 異質資料處理: 能夠處理各種異質資料來源,進行資料清理、轉換和整合,解決資料格式和結構不一致的問題。 6. 跨團隊協作: 與資料分析師和業務團隊緊密合作,了解資料需求,提供資料支援,共同推動資料驅動的決策。 7. CI/CD 導入與實踐: 熟悉 CI/CD 流程,能夠設計和實施自動化部署和測試流程,確保資料管道的穩定性和可靠性,加速開發迭代。 8. 技術研究與創新: 持續研究和評估新的資料工程技術和工具,提出改進建議,並將其應用於實際工作中,保持技術領先。
應徵
09/02
新北市板橋區5年以上專科
Responsibility a. Gathering and understand requirements for data analysis and dashboard visualization. b. Receive and process raw data from various sources, including Google Sheets and other formats. c. Clean, transform, and aggregate data to prepare it for analysis. d. Develop and maintain dashboards and reports that effectively visualize data and provide insights based on client's specifications. e. Ensure data accuracy and integrity throughout the data processing and visualization pipeline. Qualifications A. Bachelor's degree in Data Science, Computer Science, Statistics, Mathematics, Business Analytics, or a related field. B. Proficiency in at least one data visualization tool. C. Experience with data manipulation and analysis using spreadsheet software (e.g., Google Sheets, Excel). D. Basic understanding of SQL. E. Strong written and verbal communication skills. F. Excellent analytical and problem-solving abilities. Preferred A. Experience with data modeling and database design. B. Proficiency in SQL for data analysis. C. Proficiency in Google AppScript for data processing. D. Experience developing interactive dashboards and reports. E. Prior experience collaborating with technical and non-technical stakeholders.
應徵