104工作快找APP

面試通知不漏接

立即安裝APP

「Data Engineer」的相似工作

OpenNet_開網有限公司
共501筆
精選
科爾迪股份有限公司電腦軟體服務業
台北市松山區5年以上大學以上
・協助研發軟體新技術與新工具 ・金融系統開發 ・負責軟體之分析、設計以及程式撰寫 ・進行軟體之測試與修改
09/23
桃園市龜山區2年以上碩士以上
This vacancy is open for talent pool collection. We will contact you if we have proper vacancies that fit with your profile. Job Mission Represent manufacturing and act as gatekeeper from manufacturing to D&E function Add value in overall manufacturing processes such as forming, machining, joining, and assembling Job Description Contribute to the solution of faults and takes the necessary initiatives and practical decisions to ensure zero repeat Identify gaps and drive assigned process improvement projects and successful delivery Initiate and drive new procedure changes and projects Develop and maintain networks across several functional stakeholders Prioritize works and projects based on business situation Transfer knowledge and train colleagues on existing and newly introduced products Education Master degree in technical domain (e.g. electrical engineering, mechanical engineering, mechatronics) Experience 3-5 years working experience in design engineering Personal skills Show responsibility for the result of work Show proactive attitude and willing to take initiative Drive for continuous improvement Able to think outside of standard processes Able to work independently Able to co-work with different functional stakeholders Able to demonstrate leadership skills Able to work in a multi-disciplinary team within a high tech(proto) environment Able to think and act within general policies across department levels Diversity and inclusion ASML is an Equal Opportunity Employer that values and respects the importance of a diverse and inclusive workforce. It is the policy of the company to recruit, hire, train and promote persons in all job titles without regard to race, color, religion, sex, age, national origin, veteran status, disability, sexual orientation, or gender identity. We recognize that diversity and inclusion is a driving force in the success of our company. Need to know more about applying for a job at ASML? Read our frequently asked questions.
應徵
09/22
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
09/23
群越廣告科技有限公司電腦軟體服務業
台北市松山區3年以上大學以上
我們尋找一位資料敏銳度高、擁有穩健工程實作力的資料工程師,加入我們的遊戲推薦系統開發團隊! 這個職位非常適合熟悉 資料處理流程、具備 API 設計與部署經驗、懂得 推薦模型訓練實務,並熱衷於將 AI 技術應用在真實產品場景中的人才。 你將參與我們打造高效能推薦系統的核心挑戰之一:處理高頻率、多次存取的推薦查詢問題(Multiple Access / Frequent Access Patterns)。在實務上,推薦系統需支援大量使用者在極短時間內反覆觸發推薦請求(如首頁刷新、排行榜滑動、活動推薦等),對於資料快取策略、查詢優化、線上/離線計算資源分配都提出極高要求。 我們期望你能透過設計 穩定高效的資料管線與特徵服務(Feature Store),結合良好的 API 封裝,確保推薦服務在多次存取場景下依然具備良好延遲控制與回應品質,讓系統在真實流量下穩健運作、持續為玩家提供個性化、即時的推薦體驗。 線上視訊筆試,請 share screen 解題: Python 操作 SQL 語法(PyMySQL) Flask API 封裝與邏輯設計 Numpy 矩陣操作與轉換 Multithreading 多執行緒概念與應用 PyTorch 假碼撰寫與推薦演算法說明 必備條件(務必具備): Python 資料處理能力強,熟悉生態系統:pandas、numpy、pyMysql、SQLAlchemy 熟練 SQL 查詢與資料倉儲操作,具備處理大型資料集的經驗 實際操作過 Flask API 設計與服務包裝 理解推薦系統與分類/排序模型的運作,具備實作經驗 熟悉模型部署工具,例如 Flask / FastAPI、joblib、ONNX、MLflow 等 具備跨部門溝通能力與資料產品思維,能獨立拆解與解決資料問題 加分條件(非必要,但會加分) 使用過雲端資料平台:BigQuery、Snowflake、Redshift 有推薦模型訓練與優化經驗:如 DNN-based 矩陣分解、Pairwise Ranking、Embedding 模型 熟悉 強化學習、Bandit Algorithm 在推薦系統中的應用 曾設計過 AB test 並執行評估分析 實作過 Feature Store、推薦 pipeline 框架設計經驗
應徵
09/18
台北市中正區1年以上大學
[Job Description] •Develop and maintain a web-based system for financial data processing. •Implement P&L calculations, exposure tracking, and performance reporting over user-defined periods. •Integrate market data and indicators or signals from the quant team to support trading strategies. •Process and analyze external financial data sources/APIs (e.g., Bloomberg). •Ensure data accuracy, system stability, and performance optimization. •Maintenance and implementation of machine learning models. [Job Requirements] •Strong experience in backend development (Python(preferred), Node.js, or other relevant languages). •Proficiency in working with databases (SQL(preferred) or NoSQL). •Proficiency in creating and maintaining databases will be considered a plus. •Basic knowledge of frontend technologies (HTML, CSS, JavaScript) to support system integration. •Familiarity with financial markets and handling large datasets, also machine learning. •Experience in market data processing and familiarity with financial instruments is a plus. •Proficiency in written and spoken English and Chinese •Can work under pressure on ad-hoc projects *This position requires on-site test only. Please ensure you are able to attend the test in person. (僅有實體測驗,且此職位非遠距,請確保您能配合再投遞履歷) *Please provide an English resume.*
應徵
09/23
台北市南港區2年以上大學以上
【團隊任務與介紹】 91APP 為國內首家掛牌上櫃的原生 SaaS 軟體服務公司,提供「虛實融合(OMO)」新零售軟體雲服務,協助零售品牌快速切入電商市場。我們致力於協助品牌進行數位轉型,已成功協助諸多品牌完成新零售佈局,隨著互聯網快速演進發展,不少大型零售實體品牌面臨直接衝擊,數位轉型勢不可擋,迄今服務客戶累計破萬家,更涵蓋多家國內外大型品牌商家。 Data Engineer Team 在敏捷開發的工作節奏中打造世界級 SaaS 產品,我們掌握台灣中大型品牌與零售業運作、線上與門市的商業邏輯,並積累未來零售數位轉型所需要的 Know How 與競爭優勢。在這裡,可以接觸 MarTech (Marketing Tech) 最新尖端產業發展趨勢,同時累積電子商務的產品策略思維,打造用數據賦能零售業者的 SaaS 產品。 【實際接觸到的工作內容】 1. 與 Data & Martech 產品團隊的產品經理、 UX 設計師、前端 Frontend engineer、後端 Backend Engineer 等不同角色密切合作。 2. 打造 91APP 的各項 Data & Martech 產品,包括數據分析報表、用戶分群系統、自動化行銷系統、廣告媒體平台串接...等系統功能。 【期望你具備的基本條件】 1. 熟悉 Node.js 開發。 2. 熟悉 Express.js Web 框架。 3. 有使用 Jest, Mocha 等相關測試經驗。 4. 了解如何建立監控機制來監控服務狀態是否正常。 5. 有至少一種 RDB 相關經驗,例如 MySQL, MSSQL, GCP BigQuery。 6. 精通HTML、CSS、Javascript程式語言,以及React框架。 7. 熟悉 React Hook API。 8. 具備良好的程式邏輯思考能力,能撰寫乾淨、模組化且易維護的程式碼。 9. 了解並能適應 RESTful API 或 GraphQL API 的開發流程。 10. 單元測試、整合測試等軟體測試技巧的經驗,如 Jest or React Testing Library。 11. 熟悉 Git 版本控管基本操作並能理解 Git Flow。 【專屬於你的加分項目】 1. 使用過至少一種 Javascript frameworks,例如 React.js, Vue.js, Angular.js。 2. 使用 CI/CD 優化部署流程經驗。 3. 使用 message broker 相關經驗,例如 RabbitMQ, Kafka。 4. 使用容器化技術建立可擴展服務的經驗,例如 Docker, Kubernetes。 5. 有設計瞬間巨量架構以及大量背景工作架構的經驗。 6. 熟悉 Tailwind CSS(Senior Required)。 7. 熟悉 Redux or XState 等狀態控管庫的使用經驗。 8. 具有 Webpack 或 Vite 等打包工具使用經驗。 9. 具有 Gitlab CI 開發經驗,知道如何撰寫 Yaml 部署應用。 10. 前端元件庫開發經驗。 【立即加入91APP的團隊文化】 擁抱變化:體驗公司在快速發展下的變化,包括產品發展方向、組織調整,快速地進行自我調適。 價值導向:從客戶、公司、團隊的角度去論述價值,用具體的行動創造商業影響,以終為始地推動產品發展。 務實主義:開放地面對問題,從真實場景洞察與定義需求,鼓勵聚焦目標,解決真實的問題,共創更好的產品服務。 ╰╰ ★ 更多更精采的91APP ★ ╯╯ 公司產品介紹: 【91APP 是什麼?我們的願景、產品和客戶成功價值】https://reurl.cc/bXdznr 【新零售劇場:為什麼我們都在91APP?】https://reurl.cc/Ak9RNe 【打造 OMO 虛實融合的核心】 https://www.91app.com/omo-power-circle/ 【91APP 跨境】https://www.91app.com/blog/cross-border-hkmkt 團隊開發日常: 【推一個!!91APPer~這就是RD啦_生活篇】 https://reurl.cc/E2a0qA 【Backend RD 的日常】https://reurl.cc/9ZQmoX 【91APP軟體開發之道】https://happylee.blog/91appway/ 【91APP TechDay 2020 技術論壇】https://reurl.cc/E2a58A 更多影片連結: 【雙11備戰全記錄】https://reurl.cc/a9XNyZ 【雙11戰情之夜 - 獨家曝光】https://reurl.cc/bzyK6r 【91APP面試分享】https://reurl.cc/pxZ444 【客戶案例與新零售知識分享】 http://blog.91app.com
應徵
09/23
株式会社シエス情報電腦系統整合服務業
日本3年以上大學以上
招募台灣地區工程師 公司提供簽證的更新以及新規簽證。 可提供高度人才簽證(5年)額外加20分,提早取得永久居留權。 執行案件為一般商業、金融案件居多,會派至委託公司駐點或在宅。 【工作內容】 1.負責軟體之分析、設計以及程式撰寫。 2.規劃執行軟體架構及模組之設計,並控管軟體設計進度。 3.進行軟體之測試與修改。 4.規劃、執行與維護量產的產品。 5.協助研發軟體新技術與新工具。 【工作職缺】Python軟體開發工程師(工作經驗三年以上) 【徵求條件】JAVA,NET,C#C,C++,Python,salesforce,SAP,PHP,IOS,Android,AWS,React.Ruby.C# (其中有一至兩項擅長的項目歡迎詢問) *無日文N1以上(可無檢定證書,但需聽說讀寫流利)請勿投遞履歷,國外遠端工作不可* 【工作地點】日本關東地區 【工作時間】9:00-18:00 中午休息1小時(依客戶現場為主) 【公司制度】1.提供雇用保險、健康保險、年金保險 2.完全週休2日、GW/夏休/年末年始連休 3.工作產生的交通費實報實銷 4.一年一度健康檢查
應徵
09/18
烽泰科技有限公司其他金融及輔助業
台北市大同區3年以上大學
【工作內容】 作為集團數據策略的關鍵推手,您將有機會與集團IT團隊一同將財務數據從傳統架構轉型至現代化雲端平台 (AWS)。如果您渴望與頂尖數據專家、專案經理共同協作,並將資料工程、雲端、DataOps 技術應用於實際業務痛點,那麼這個職位正是您的最佳舞台! 我們的Sr. Finance DE將會與集團IT團隊合作,逐步將財務資料從地端VM搬遷至AWS雲端環境,並協助其他財務部同仁將日常業務報表、分析報表進行自動化。我們重視快速溝通與實際的專案交付! 在這裡,除了具競爭力的薪資與各種福利外,您還能與團隊內不同的夥伴們相互學習,追求技術成長。我們相信,透過透過實際的專案開發與新技術的學習與使用,才是讓團隊不斷進步與成長的動力! 【您需要做什麼?】 • 協助財務數據雲端轉型: 與集團 IT 團隊緊密協作,規劃並執行財務核心資料從地端 VM 遷移至 AWS 雲端環境的策略與實施。 • 建構數據自動化流程: 設計、開發並維護高效、穩定的財務數據 ETL/ELT pipeline,實現日常業務報表與分析報表的全面自動化。 • 數據架構優化與創新: 持續學習並導入先進的資料領域知識與技術(如 DataOps、FinOps 概念),優化現有數據架構,提升數據處理效率與品質。 • 跨部門協作與溝通: 深入理解財務部門需求,並能將複雜的技術概念清晰地傳達給非技術背景的同仁,共同推動專案進程。 • 數據專案開發與管理: 負責數據相關專案的設計、開發與維護,包含 Datalake 管理、資料收集、清洗、儲存等關鍵功能,確保數據的完整性、一致性與可用性。 • 文件撰寫與知識傳承: 撰寫清晰的開發文件 (Design Document, ERD, Diagram, User Manual),確保專案知識的有效傳承。 【我們期待您具備】 • 精通 SQL,具備大規模集中/分散式資料庫的 CRUD 操作、效能優化及資料清洗 (ETL/ELT) 實戰經驗。 • 豐富的 Python 資料工程開發經驗,熟悉並應用 pandas, numpy, pyspark 等核心套件。 • 具備 AWS 雲端平台 (例如 S3, EC2, Lambda, Glue, Redshift, Athena 等服務) 與 Databricks 的實務開發經驗。 • 具備 Data Pipeline (資料流) 的設計、搭建與優化能力,熟悉 Dagster 或 Airflow 等排程工具。 • 5 年以上資深資料工程師或相關經驗,並具備獨立主導專案的能力。 • 卓越的需求訪談與業務邏輯理解能力,能將複雜的技術概念清晰地傳達給非技術背景利害關係人。 • 具備良好的溝通協作能力,主動積極解決問題,並樂於分享知識。 【符合以下條件,將是您的優勢】 • 具備財務金融相關專業知識或在金融科技產業的資料工程經驗。 • 對 DataOps 或 FinOps 理念有深入理解與實踐經驗。 • 熟悉 Linux 操作與 Shell Script。 • 具備 資料視覺化工具 (Tableau、PowerBI) 實務經驗。
應徵
09/17
文境資科股份有限公司專門設計相關業
台北市大安區1年以上大學以上
Data Engineer/ 資料工程師 1.資料稽核(Data Auditing)、收集(Data Collection)、整合作業(Data Integration) 等資料分析前處理作業 2.有MS SQL server、SSIS、SSRS、SSAS ,或其他ETL工作經驗尤佳 3.具Stored Procedure、Python、.NET、Linux Shell 撰寫經驗 4.對醫療資料分析充滿熱情並具備程式開發之熱忱與積極性 5.以公衛、醫管、資管與統計相關科系優先
應徵
09/10
炬識科技股份有限公司電腦軟體服務業
台北市中山區1年以上大學
炬識科技(Athemaster)2024.05 宣布,推出全新資料品質產品「Athemaster DQSentry」,幫助企業掌控真實資料品質,將企業資料產製成具更高商業價值的企業專屬大型語言模型等資料產品,加速AI數位轉型進程。 ▎你想知道的 Athemaster: 請前往:https://linktr.ee/athemaster ▎Athemaster | 你會遇見這10種生活方式 https://reurl.cc/koZGGr ▎Why Join Us ● 2種開發模式:瀑布 & 敏捷 雙刀流 [ 獲台灣敏捷協會 #2024 #2025 敏捷大賞獎 ] ● 5種職系任你混搭搭配:每年依照個人意願打造專屬的成長路徑與職涯,不是工作量增加,而是組合技增加。 ● 25堂阿基米德創客間:雙週五的固定學習講座課程,來自內部6個社群與聘請外部講師共學。 ● 98% 以上機率可以 Work & Life Balance:此為所有專案成員的共同目標,並且認真執行。 ● 200個以上的學習資源:包含線上課、電子書、實體書及多樣化的學習方式。 ▎Job Description 參與內外部專案,幫助企業客戶運維 Data infra(資料基礎建設)、研發 Data pipeline(資料管線) 與 Data products(資料產品),整合與提升企業商務系統,以滿足 Data-Driven 數據驅動之轉型目標。並與團隊一起發展 Athemaster 2.0 data project 方法論。 ▎主要工作內容 - Data pipeline 設計 - Data pipeline 程式撰寫與測試 - Data pipeline 部署與維運 - Data products 之運維(Data Products:例如資料表、演算法(模型)、API、儀表板或應用系統) ▎我們希望你有的經驗跟特質 - 對 Data-Driven Business 和 Data Engineering 有極大的熱情。 - 了解架構資料平台所需的相關技術,例如 RDBMS, NoSQL DB, Search Engine, Data Warehouse, Event Streaming Platform 等。 - 有 ETL 或資料分析案之專案經驗。 - 樂於與團隊互動、與客戶合作,並回應變化,願意了解客戶產業的領域知識以開發可用的軟體。 - 認同溝通的雙向性,職務內所需之訊息主動聽取、提出必要問題以正確理解,不依靠他人作為自己的眼睛、耳朵與嘴巴。 - 認同權限與責任對等原則,尊重擔負責任者經共識活動後的最終決策,並接受自己角色範圍內的指派。 - 認同角色範圍內個人能力應穩定輸出,達成預期之客戶價值。認同喜好或優先於團隊的個人考慮並非挑撿任務之合理原因。 - 樂於學習最新的技術,隨時充實自我的專業技能。 ▎應徵條件 - 熟悉 Python 程式語言。Athemaster主要用 Python & Java。 - 熟悉至少一種 SQL **與** NoSQL 資料庫的運用。例如 MySQL、PostgreSQL、Mongo 任一種。 - 具有分散式運算的相關知識。例如 Spark、Hadoop、Hive、impala、kafka等。 - 熟悉 Git, Jenkis, Airflow 等 Data Pipeline 開發關聯系統之使用。 - 至少 3 年工作經驗 - 1 年以上擔任 Data Engineer 角色參與專案之經驗,並熟悉 ETL 流程 ▎加分條件 - 願意參與 Data infra 維運(Data Infra:各種儲存結構化或半結構化資料的系統)。 - 願意參與運維最佳化系統效率與穩定度,架構高速、穩定且容易擴充的計算平台。 - 具有使用 NoSQL 的實務經驗。例如 HBase、Cassandra、Redis、MongoDB 等一種或多種相關技術。 - 具有使用 Streaming 資料處理系統的實務經驗。例如 Spark-streaming、Kafka、Flink 等。 - 具有使用 ETL Tool 資料整合工具的實務經驗。例如 Informatica, NiFi, Pentaho 等。 - 熟悉任一種視覺化工具。例如 Tableau, Power BI, Redash 等。
應徵
09/18
台北市內湖區1年以上大學
工作內容: • Designing and maintaining cloud-based data warehouse, including data collection, modeling, and storage. • Maintaining batch and streaming pipelines, ensuring data quality. • Developing data APIs based on product requirements and deploying them to Kubernetes using Gitlab CI/CD. • Understanding user needs and handling data retrieval and dashboard support tasks. • Continuously learning, optimizing data architectures, and introducing new technologies.
09/17
創代科技股份有限公司工商顧問服務業
台北市中山區1年以上碩士以上
我們正在尋找一位 Mid-Level 的數據工程師 (Data Engineer),主要負責 資料庫建置、ETL 流程設計與開發、數據處理與分析。目前創代科技曾執行過的專案包含了 大型語言模型產品開發(涵蓋雲端、地端、雲地混合方案)、深度學習開發(產品洞察與行為預測、時間序列預測、路線最佳化)、機器學習應用(各產業客戶的資料探勘與分析)、數據中台建置(含資料正規化、ETL 建置、導入 dbt、snowflake)!我們現在手上有各種類型的專案等著你來玩! 為什麼選擇創代科技? 創代科技是一家提供數據科學顧問服務的公司,業務涵蓋 零售、交通、物流、航運、電信、能源、犯罪、災防 等多元領域,並持續拓展至其他前沿產業。在這裡,你將接觸到多樣化的數據場景,包括乾淨度各異的資料與高度客製化的架構設計,讓你在解決各種挑戰中快速成長。 如果你熱愛學習新技術、探索創新解決方案,那麼在創代擔任數據工程師,將是你的最佳選擇。 ✅ 【職責內容】 1. 資料庫設計:熟悉資料庫概念,協助建置與維護資料倉儲、資料湖跟資料中臺。 2. ETL 或 ELT 流程開發:協助客戶建立基於地端或是雲端的資料流架構,整合多元數據來源(結構化與非結構化),構建高效數據處理系統,確保資料一致性與完整性。 3. 數據處理與協作:與資料科學家、資料分析師及後端工程師協作,處理 Data Pipeline 建置及數據收集、探勘與轉換。 4. 協助客戶工具導入:協助客戶翻新原有 Pipeline,並導入 dbt、snowflake等。 ✅ 【我們期待你具備】 1. 學歷背景:具備碩士學位, 資訊工程、資訊管理、資料科學、數學、統計、電機相關領域加分。 2. 專業技能: - 熟悉數據處理與分析,具備 ETL / ELT 流程開發與維護經驗。 - 熟悉 關聯式資料庫(如 PostgreSQL)及 圖形資料庫(如 Neo4j),擁有資料倉儲建置與操作經驗。 - 熟悉 Linux 環境,並具備版本控制工具(如 Git)使用經驗。 - 熟悉 容器化技術(如 Docker、Kubernetes),了解其生產環境運行與管理。 - 具備 Airflow 排程管理及模型部署經驗。 ✅ 【加分條件】 - 雲端服務:熟悉 GCP、AWS、Azure,具備跨雲架構整合及服務部署能力。 - 分散式系統:有 Hadoop、Spark 開發經驗者尤佳。 - 資料庫工具:具備 dbt 或是 snowflake 導入或是使用經驗。 - DevOps 經驗:具備 CI/CD 自動化部署實作經驗。 - BI 工具:熟悉 Tableau、Looker、Power BI。 - 演算法基礎:理解機器學習、深度學習背後邏輯或是應用經驗。 ✅ 【薪資待遇】 - 面議,保障年薪 14 個月。 ✅ 【公司福利】 - 彈性上下班時間、彈性居家上班福利。 - 每月享有職員不扣薪福利假、生日當月再多一天生日假。 - 不定期員工聚餐、午餐、下午茶、出遊團康活動等。 - 公司零食區、冰箱飲料、咖啡櫃永遠補給充足,讓每位新進夥伴都保證先胖五公斤! - 保障年終獎金 2 個月,其他績效獎金還可以靠自己爭取,亦提供結婚、生育等各項禮金。 - 電腦設備:公司提供工作機,亦可自備設備並領取每月電腦補助費。 - 每年提供教育訓練補助。 - 提供定期健康檢查補助。 - 每年定期進行績效考核,讓職員的升遷與薪資調整更有依據與保障。 ✅ 此職缺定位為 Mid-Level,尋找 1 - 3 年經驗的人選
應徵
09/23
OpenNet_開網有限公司網際網路相關業
台北市中正區3年以上大學以上
- Set up and execute extract, transformation, and load (ETL) functions to build a data pipeline. - Extraction and analysis of large data sets from MySQL. - Performance tuning for current and newly added queries to the databases, ensuring the database resources are fully utilized. - Delivering clear analysis and reporting of core business metrics to shareholders. - Creation and management of reports and dashboards. - Data management. - Enhance and optimize existing reporting processes. - Ad hoc analysis and reporting to clients and shareholders. - Aid in reconfiguring existing architecture and database structure to address our shareholder's evolving needs. - Daily maintenance and monitoring of all BI-related databases and dashboards, including proficient handling of emergencies. - Providing actionable insight to drive the growth of core products. Our Stack MySQL (Must) Python (Good to have) AirFlow (Good to have) AWS (Good to have) Metabase (Good to have) Redshift (Good to have) Linux (Good to have)
應徵
09/15
云智資訊股份有限公司其它軟體及網路相關業
台北市松山區3年以上專科以上
1. 3年以上 ETL 相關經驗。 2. 熟悉MS SQL、ETL(會Trinity、Greenplum尤佳)。 3. 具有資料分析經驗、細心、負責。 4. 溝通能力良好,可與 SA/PM 或其他 PG 協力合作。
應徵
09/22
台北市松山區1年以上大學
COMMEET (https://commeet.co) 擴大徵才,歡迎有熱情之新夥伴加入我們的行列 [工作內容] 1 整理、標記數據,以確保數據的準確性與可靠性 2 建立/維護/優化資料處理流程與架構(data pipeline) 3 跟相關的stakeholder合作,解決並優化他們的數據需求 4 其它主管交辦事項。 [必要條件] • 從業人員恪守客戶個資保護敏感度及尊重客戶資料隱密性 • 熟悉 ML/DL • 熟悉 python 語言與相關資料庫 (csv、postgres、redis、excel) • 熟悉圖表可視化(Visualization),以及圖表分析能力 • 熟悉 git 版本控制 • 如線上初試通過者,將安排線下複試,複試安排 leetcode [加分項目] • 具有 OCR 處理數據經驗 • 有kaggle 等競賽平台經驗 • 有新創公司經驗 • 有FinTech 或 ERP/CRM 經驗 [人格特質] • 獨立作業的能力 • 細心負責任 • 勇於溝通,樂於表達自己的想法 • 喜歡主動學習新技術,願意與團隊研究及分享技術新知
應徵
09/22
台北市南港區3年以上學歷不拘
【Job Responsibilities】 ・Own the design, scalability, and reliability of the company’s data platform and pipelines ・Define and implement best practices for data modeling, orchestration, and data warehouse architecture. ・Work closely with Product, data scientists, and Infra teams to define data strategy. ・Initiate the adoption of MLOps practices: design and set up the framework for deploying, monitoring, and scaling ML/DL models in production. 【Skills】 ■ Must-have ・Proficient in SQL and Python. ・Proven experience in designing and maintaining large-scale data pipelines and data warehouses (GCP preferred). ・Strong knowledge of schema design, structured/unstructured data handling, and performance optimization. ・Solid understanding of CI/CD and version control (Git). ・Familiarity with Unix/Linux environments. ・Experience with workflow orchestration tools (e.g., Airflow, dbt, Prefect). ・Experience in defining architecture and technical direction for data platforms. ■ Nice-to-have ・Hands-on experience with MLOps practices and tools (e.g., MLflow, Kubeflow). ・Exposure to real-time/streaming data pipelines (e.g., Kafka, Pub/Sub). ・Experience with Kubernetes for scalable data and ML workloads.
應徵
09/22
台北市松山區1年以上高中
【工作內容】 與團隊協作,共同完成各客戶的資料流開發,同時協助團隊梳理與排除運作中的 data pipeline 產生的各種突發程式狀況,並完成記錄與建檔,您應可獨立開發系統串接、大資料清整。在工作過程中,您會與工程團隊、設計團隊、產品團隊溝通協作,完成規劃之項目與習慣自主進度掌控,例如資料串接、資料爬取、數據報告等。 【我們希望你】 一定要對開發工作具有熱情與自我學習不斷精進的渴望,遇到問題時,能獨立查找與判斷解決方案的可行性,若遇到無法解決的問題,也懂得如何清楚論途與提問,樂於與同仁們分享技術新知、提升自我能力,當挑戰尚不熟悉的工作內容時,充滿戰鬥力。 【職務需求】 熟悉 Python, SQL 熟悉 dbt, Airflow (Google Cloud Composer & MWAA) 熟悉 Star Schema / Snowflake Schema 設計 熟悉 Modern Data Stack 熟悉 PostgreSQL, MySQL, MongoDB 任一一種資料庫 【加分項】 熟悉 BigQuery or Redshift 熟悉 Glue or Dataflow 熟悉 Lambda or Cloud Run 【面試流程】 [實體] 一面
➀ 公司文化與價值觀討論
 ➁ 專案經歷與履歷討論
 ➂ 公司介紹(商業模式、團隊組成、工作內容)
 ➃ 公司相關問題 Q & A [線上] 二面 
 ➀ 線上題目,線上題目,用 HackMD 進行,內容包含 SQL、Pandas、ETL 基礎概念 ➁ 情境題(模擬完整商業需求)
應徵
09/22
台北市中山區2年以上大學
您將是我們數據驅動文化的核心奠基者, 您所建立的數據管道將直接賦能公司做出更智慧的商業決策。 1. 數據平台開發與維運: - 負責設計、建置與維護數據 ETL/ELT 管道,確保數據從源頭穩定、高效地流入數據平台 - 開發自動化監控與預警系統,追蹤排程狀態、效能與數據品質,確保數據中台的穩定運行 2. 數據模型實作與優化: - 與數據分析師合作,完成數據模型的資料清洗與轉換,確保數據質量與一致性 - 設計與開發數據驗證與監控機制,提高數據完整性與準確性 3. 數據治理工具實施: - 實作Data Lineage追蹤,並導入數據目錄工具,以提升數據資產的透明度與可信度 4. 技術研究與新技術導入: -研究與評估新技術,提升數據處理、分析與儲存架構的效能 -針對機器學習或 AI 應用,進行數據架構建置與最佳化準備 【我們需要你具備】 1. 具備至少 2 年 的資料工程師經驗。 2. 熟悉雲端數據平台,具備 Databricks 或其他相關雲端服務(如 AWS、Azure、GCP)的使用經驗。 3. 精通 SQL,具備複雜數據處理與效能調優的能力。 4. 具備 Python/PySpark 或其他編程語言的開發能力。 5. 熟悉 ETL/ELT 流程設計與數據倉儲概念。 6. 對數據治理(Data Governance)、元數據管理(Metadata Management)有基本概念。
09/19
台北市信義區2年以上大學以上
【公司相關資訊】 1. PChome小金雞獲利翻2倍,下步要當「獨角獸」!估值衝10億武器為何? https://tinyurl.com/yrcw3q49 2. PChome虧損,它卻大賺!全台首推iPhone訂閱制,近兩年營收成長30%,網家小金雞如何讓華碩、三星搶合作? https://www.wealth.com.tw/articles/622d5723-e77f-4421-a86f-dfeca7cc41b7 3. 攻 BNPL、iPhone 訂閱制,網家子公司 21st FinTech 上半年獲利 1.6 億元 https://finance.technews.tw/2023/10/19/21st-fintech-20231019 我們正在建置公司內外部共用的資料服務平台,結合大數據與AI的技術,建立智慧化與自動化的資料檢索與分析功能,協助公司內部進行資料營運並且以數據分析結果協助管理層進行決策支援。 此職務需要協助公司維運並建立資料團隊共用的雲端軟硬體架構、資料分析環境架設與資料應用流程規劃。現今有非常多資料管理與營運相關的軟體,你可以用你對於開源軟體架設的經驗,與團隊一同建立資料營運的系統架構,也能夠在現今的大數據與AI的發展架構下,提升團隊與個人的能力。 【職務內容】 1. 管理資料團隊軟體工具,包含定期軟體更新、備份和設備與資料轉移 2. 監控並排除團隊工具與資料狀態,提供定期報告與緊急告警模式 3. 依團隊需求建置並調校資料分析平台等相關服務 4. 開發並維運內外部夥伴資料串接之 Web API 5. 其他主管交辦事項
應徵
09/19
台北市信義區5年以上大學以上
About the Opportunity: We're seeking a highly motivated and experienced Data Engineer to join our growing team at BTSE. You will play a critical role in designing, implementing, and maintaining our data infrastructure, with a focus on cloud-based solutions. You will work closely with the Senior Data Engineer to ensure the efficient and reliable delivery of data to support various business needs. Key Roles & Responsibilities: ●Design, implement, and maintain data infrastructure, including cloud-based solutions (AWS preferred). ●Develop and optimize ETL pipelines for performance, scalability, and reliability. ●Collaborate with the Senior Data Engineer to ensure data quality and integrity. ●Explore options to upgrade and replace existing systems to improve efficiency and reduce manual effort. ●Proactively identify and resolve data-related issues. ●Stay up-to-date with the latest data engineering technologies and best practices. Qualifications: ●Bachelor's degree in Computer Science, Information Technology, or a related field. ●3+ years hands on experience in cloud technology and data engineering. ●Working experience in GIT, GitLab ●Strong knowledge of database design principles, backup and recovery strategies, security best practices, and performance tuning techniques. ●Proficiency in database management systems such as MySQL, PostgreSQL, Oracle, or SQL Server. ●Solid experience with cloud-based database services (e.g., AWS RDS, Azure SQL Database) is preferred. ●Excellent analytical and problem-solving skills. ●Strong communication and interpersonal skills. ●(Mandatory) : Able to independently hit the ground running with development tasks.
應徵
09/24
幣託科技股份有限公司電腦軟體服務業
台北市松山區2年以上大學
關於BitoGroup ◆ 隨著全球區塊鏈與加密貨幣產業市場的增長,幣託正處於快速成長狀態。為持續提供更安全及更好的用戶體驗,幣託近兩年持續擴編,並誠摯邀請像您一樣,能一同作戰、且有開創心態的人才。 ◆ 如果您也擁有金融商品開發經驗、樂於挑戰創新並擁抱變化,非常歡迎您加入幣託團隊大家庭,一起打造屬於全民的加密貨幣投資平台! 【職務說明】 -開發並維護資料倉儲,與各團隊合作進行用戶、交易及第三方數據整合,驅動集團決策 -具備全端資料工程能力,從規格定義、數據處理、數據分析到視覺化交付,完成資料需求循環 -密切關注資料工程生態圈,根據團隊階段選擇合理工具與架構,持續演進 -於資料工程中實踐軟體工程方法,強化服務之可用性、安全性與可運維性 【職務要求】 ◆ Essential -3年以上程式開發或數據處理相關經驗(含專題研究)/ (Senior 要求) 3 年以上資料工程相關工作經驗 -分散式資料處理:Apache Spark, Apache Flink, Generic SQL -關聯式資料庫管理與結構設計:MySQL, PostgreSQL -第三方API串接:RESTful, WebSocket ◆Nice-to-have -數據湖開發,半結構化資料管理:Apache Iceberg、 Apache Doris -容器化與部署:Docker, Kubernetes -AWS相關服務建置:Glue, S3, Athena, IAM -商業智慧平台操作:Tableau, Metabase -Change data capture管線開發:Debezium, Kafka Connect -網頁爬蟲程式開發:Python -機器學習建模經驗:Pytorch, Tensorflow, Scikit-Learn
應徵