104工作快找APP

面試通知不漏接

立即安裝APP

「Regional Data Engineer 數據工程師(台北工作)」的相似工作

香港商麥迪康亞太有限公司台灣分公司
共500筆
09/23
株式会社シエス情報電腦系統整合服務業
日本3年以上大學以上
招募台灣地區工程師 公司提供簽證的更新以及新規簽證。 可提供高度人才簽證(5年)額外加20分,提早取得永久居留權。 執行案件為一般商業、金融案件居多,會派至委託公司駐點或在宅。 【工作內容】 1.負責軟體之分析、設計以及程式撰寫。 2.規劃執行軟體架構及模組之設計,並控管軟體設計進度。 3.進行軟體之測試與修改。 4.規劃、執行與維護量產的產品。 5.協助研發軟體新技術與新工具。 【工作職缺】Python軟體開發工程師(工作經驗三年以上) 【徵求條件】JAVA,NET,C#C,C++,Python,salesforce,SAP,PHP,IOS,Android,AWS,React.Ruby.C# (其中有一至兩項擅長的項目歡迎詢問) *無日文N1以上(可無檢定證書,但需聽說讀寫流利)請勿投遞履歷,國外遠端工作不可* 【工作地點】日本關東地區 【工作時間】9:00-18:00 中午休息1小時(依客戶現場為主) 【公司制度】1.提供雇用保險、健康保險、年金保險 2.完全週休2日、GW/夏休/年末年始連休 3.工作產生的交通費實報實銷 4.一年一度健康檢查
應徵
09/25
烽泰科技有限公司其他金融及輔助業
台北市大同區3年以上大學
【工作內容】 作為集團數據策略的關鍵推手,您將有機會與集團IT團隊一同將財務數據從傳統架構轉型至現代化雲端平台 (AWS)。如果您渴望與頂尖數據專家、專案經理共同協作,並將資料工程、雲端、DataOps 技術應用於實際業務痛點,那麼這個職位正是您的最佳舞台! 我們的Sr. Finance DE將會與集團IT團隊合作,逐步將財務資料從地端VM搬遷至AWS雲端環境,並協助其他財務部同仁將日常業務報表、分析報表進行自動化。我們重視快速溝通與實際的專案交付! 在這裡,除了具競爭力的薪資與各種福利外,您還能與團隊內不同的夥伴們相互學習,追求技術成長。我們相信,透過透過實際的專案開發與新技術的學習與使用,才是讓團隊不斷進步與成長的動力! 【您需要做什麼?】 • 協助財務數據雲端轉型: 與集團 IT 團隊緊密協作,規劃並執行財務核心資料從地端 VM 遷移至 AWS 雲端環境的策略與實施。 • 建構數據自動化流程: 設計、開發並維護高效、穩定的財務數據 ETL/ELT pipeline,實現日常業務報表與分析報表的全面自動化。 • 數據架構優化與創新: 持續學習並導入先進的資料領域知識與技術(如 DataOps、FinOps 概念),優化現有數據架構,提升數據處理效率與品質。 • 跨部門協作與溝通: 深入理解財務部門需求,並能將複雜的技術概念清晰地傳達給非技術背景的同仁,共同推動專案進程。 • 數據專案開發與管理: 負責數據相關專案的設計、開發與維護,包含 Datalake 管理、資料收集、清洗、儲存等關鍵功能,確保數據的完整性、一致性與可用性。 • 文件撰寫與知識傳承: 撰寫清晰的開發文件 (Design Document, ERD, Diagram, User Manual),確保專案知識的有效傳承。 【我們期待您具備】 • 精通 SQL,具備大規模集中/分散式資料庫的 CRUD 操作、效能優化及資料清洗 (ETL/ELT) 實戰經驗。 • 豐富的 Python 資料工程開發經驗,熟悉並應用 pandas, numpy, pyspark 等核心套件。 • 具備 AWS 雲端平台 (例如 S3, EC2, Lambda, Glue, Redshift, Athena 等服務) 與 Databricks 的實務開發經驗。 • 具備 Data Pipeline (資料流) 的設計、搭建與優化能力,熟悉 Dagster 或 Airflow 等排程工具。 • 5 年以上資深資料工程師或相關經驗,並具備獨立主導專案的能力。 • 卓越的需求訪談與業務邏輯理解能力,能將複雜的技術概念清晰地傳達給非技術背景利害關係人。 • 具備良好的溝通協作能力,主動積極解決問題,並樂於分享知識。 【符合以下條件,將是您的優勢】 • 具備財務金融相關專業知識或在金融科技產業的資料工程經驗。 • 對 DataOps 或 FinOps 理念有深入理解與實踐經驗。 • 熟悉 Linux 操作與 Shell Script。 • 具備 資料視覺化工具 (Tableau、PowerBI) 實務經驗。
應徵
09/10
炬識科技股份有限公司電腦軟體服務業
台北市中山區1年以上大學
炬識科技(Athemaster)2024.05 宣布,推出全新資料品質產品「Athemaster DQSentry」,幫助企業掌控真實資料品質,將企業資料產製成具更高商業價值的企業專屬大型語言模型等資料產品,加速AI數位轉型進程。 ▎你想知道的 Athemaster: 請前往:https://linktr.ee/athemaster ▎Athemaster | 你會遇見這10種生活方式 https://reurl.cc/koZGGr ▎Why Join Us ● 2種開發模式:瀑布 & 敏捷 雙刀流 [ 獲台灣敏捷協會 #2024 #2025 敏捷大賞獎 ] ● 5種職系任你混搭搭配:每年依照個人意願打造專屬的成長路徑與職涯,不是工作量增加,而是組合技增加。 ● 25堂阿基米德創客間:雙週五的固定學習講座課程,來自內部6個社群與聘請外部講師共學。 ● 98% 以上機率可以 Work & Life Balance:此為所有專案成員的共同目標,並且認真執行。 ● 200個以上的學習資源:包含線上課、電子書、實體書及多樣化的學習方式。 ▎Job Description 參與內外部專案,幫助企業客戶運維 Data infra(資料基礎建設)、研發 Data pipeline(資料管線) 與 Data products(資料產品),整合與提升企業商務系統,以滿足 Data-Driven 數據驅動之轉型目標。並與團隊一起發展 Athemaster 2.0 data project 方法論。 ▎主要工作內容 - Data pipeline 設計 - Data pipeline 程式撰寫與測試 - Data pipeline 部署與維運 - Data products 之運維(Data Products:例如資料表、演算法(模型)、API、儀表板或應用系統) ▎我們希望你有的經驗跟特質 - 對 Data-Driven Business 和 Data Engineering 有極大的熱情。 - 了解架構資料平台所需的相關技術,例如 RDBMS, NoSQL DB, Search Engine, Data Warehouse, Event Streaming Platform 等。 - 有 ETL 或資料分析案之專案經驗。 - 樂於與團隊互動、與客戶合作,並回應變化,願意了解客戶產業的領域知識以開發可用的軟體。 - 認同溝通的雙向性,職務內所需之訊息主動聽取、提出必要問題以正確理解,不依靠他人作為自己的眼睛、耳朵與嘴巴。 - 認同權限與責任對等原則,尊重擔負責任者經共識活動後的最終決策,並接受自己角色範圍內的指派。 - 認同角色範圍內個人能力應穩定輸出,達成預期之客戶價值。認同喜好或優先於團隊的個人考慮並非挑撿任務之合理原因。 - 樂於學習最新的技術,隨時充實自我的專業技能。 ▎應徵條件 - 熟悉 Python 程式語言。Athemaster主要用 Python & Java。 - 熟悉至少一種 SQL **與** NoSQL 資料庫的運用。例如 MySQL、PostgreSQL、Mongo 任一種。 - 具有分散式運算的相關知識。例如 Spark、Hadoop、Hive、impala、kafka等。 - 熟悉 Git, Jenkis, Airflow 等 Data Pipeline 開發關聯系統之使用。 - 至少 3 年工作經驗 - 1 年以上擔任 Data Engineer 角色參與專案之經驗,並熟悉 ETL 流程 ▎加分條件 - 願意參與 Data infra 維運(Data Infra:各種儲存結構化或半結構化資料的系統)。 - 願意參與運維最佳化系統效率與穩定度,架構高速、穩定且容易擴充的計算平台。 - 具有使用 NoSQL 的實務經驗。例如 HBase、Cassandra、Redis、MongoDB 等一種或多種相關技術。 - 具有使用 Streaming 資料處理系統的實務經驗。例如 Spark-streaming、Kafka、Flink 等。 - 具有使用 ETL Tool 資料整合工具的實務經驗。例如 Informatica, NiFi, Pentaho 等。 - 熟悉任一種視覺化工具。例如 Tableau, Power BI, Redash 等。
應徵
09/25
台北市中正區1年以上大學
[Job Description] •Develop and maintain a web-based system for financial data processing. •Implement P&L calculations, exposure tracking, and performance reporting over user-defined periods. •Integrate market data and indicators or signals from the quant team to support trading strategies. •Process and analyze external financial data sources/APIs (e.g., Bloomberg). •Ensure data accuracy, system stability, and performance optimization. •Maintenance and implementation of machine learning models. [Job Requirements] •Strong experience in backend development (Python(preferred), Node.js, or other relevant languages). •Proficiency in working with databases (SQL(preferred) or NoSQL). •Proficiency in creating and maintaining databases will be considered a plus. •Basic knowledge of frontend technologies (HTML, CSS, JavaScript) to support system integration. •Familiarity with financial markets and handling large datasets, also machine learning. •Experience in market data processing and familiarity with financial instruments is a plus. •Proficiency in written and spoken English and Chinese •Can work under pressure on ad-hoc projects *This position requires on-site test only. Please ensure you are able to attend the test in person. (僅有實體測驗,且此職位非遠距,請確保您能配合再投遞履歷) *Please provide an English resume.*
應徵
09/10
台北市南港區5年以上大學
Job Summary We are seeking a highly skilled and experienced Senior Data Engineer to join our growing data team. In this role, you will design, build, and maintain scalable data pipelines and infrastructure that support analytics, machine learning, and business intelligence initiatives. You will work closely with data scientists, analysts, and software engineers to ensure data is accessible, reliable, and secure. Key Responsibilities ■ Design and implement scalable data pipelines for real-time streaming and batch ETL/ELT processing. ■ Architect data storage solutions (data lakes, warehouses) to support diverse analytics and ML needs. ■ Develop and optimize real-time data streaming systems and corresponding dashboards. ■ Ensure data quality, integrity, security, and governance across systems. ■ Plan and execute data collection, storage, and maintenance strategies for varied requirements. ■ Collaborate with data scientists, analysts, and stakeholders to deliver business-driven data solutions. ■ Mentor junior engineers and promote data engineering best practices. ■ Monitor and enhance data infrastructure performance and scalability. Qualifications ■ 5+ years of data engineering experience. ■ Expertise in SQL, Python, and big data tools (e.g., Spark, Kafka). ■ Familiar with data representation tools (e.g., Tableau, Looker Studio, Superset). ■ Proficiency with cloud platforms (e.g., GCP, AWS, Azure) and data services (e.g., BigQuery, Snowflake). ■ Proven experience in real-time streaming systems, dashboard development, and large-scale ETL design. ■ Strong knowledge of data modeling, governance, and security practices. ■ Bachelor’s degree in Computer Science, Engineering, or related field (Master’s preferred). ■ Excellent problem-solving, collaboration, and communication skills.
應徵
09/23
群越廣告科技有限公司電腦軟體服務業
台北市松山區3年以上大學以上
我們尋找一位資料敏銳度高、擁有穩健工程實作力的資料工程師,加入我們的遊戲推薦系統開發團隊! 這個職位非常適合熟悉 資料處理流程、具備 API 設計與部署經驗、懂得 推薦模型訓練實務,並熱衷於將 AI 技術應用在真實產品場景中的人才。 你將參與我們打造高效能推薦系統的核心挑戰之一:處理高頻率、多次存取的推薦查詢問題(Multiple Access / Frequent Access Patterns)。在實務上,推薦系統需支援大量使用者在極短時間內反覆觸發推薦請求(如首頁刷新、排行榜滑動、活動推薦等),對於資料快取策略、查詢優化、線上/離線計算資源分配都提出極高要求。 我們期望你能透過設計 穩定高效的資料管線與特徵服務(Feature Store),結合良好的 API 封裝,確保推薦服務在多次存取場景下依然具備良好延遲控制與回應品質,讓系統在真實流量下穩健運作、持續為玩家提供個性化、即時的推薦體驗。 線上視訊筆試,請 share screen 解題: Python 操作 SQL 語法(PyMySQL) Flask API 封裝與邏輯設計 Numpy 矩陣操作與轉換 Multithreading 多執行緒概念與應用 PyTorch 假碼撰寫與推薦演算法說明 必備條件(務必具備): Python 資料處理能力強,熟悉生態系統:pandas、numpy、pyMysql、SQLAlchemy 熟練 SQL 查詢與資料倉儲操作,具備處理大型資料集的經驗 實際操作過 Flask API 設計與服務包裝 理解推薦系統與分類/排序模型的運作,具備實作經驗 熟悉模型部署工具,例如 Flask / FastAPI、joblib、ONNX、MLflow 等 具備跨部門溝通能力與資料產品思維,能獨立拆解與解決資料問題 加分條件(非必要,但會加分) 使用過雲端資料平台:BigQuery、Snowflake、Redshift 有推薦模型訓練與優化經驗:如 DNN-based 矩陣分解、Pairwise Ranking、Embedding 模型 熟悉 強化學習、Bandit Algorithm 在推薦系統中的應用 曾設計過 AB test 並執行評估分析 實作過 Feature Store、推薦 pipeline 框架設計經驗
應徵
09/23
台北市南港區2年以上大學以上
【團隊任務與介紹】 91APP 為國內首家掛牌上櫃的原生 SaaS 軟體服務公司,提供「虛實融合(OMO)」新零售軟體雲服務,協助零售品牌快速切入電商市場。我們致力於協助品牌進行數位轉型,已成功協助諸多品牌完成新零售佈局,隨著互聯網快速演進發展,不少大型零售實體品牌面臨直接衝擊,數位轉型勢不可擋,迄今服務客戶累計破萬家,更涵蓋多家國內外大型品牌商家。 Data Engineer Team 在敏捷開發的工作節奏中打造世界級 SaaS 產品,我們掌握台灣中大型品牌與零售業運作、線上與門市的商業邏輯,並積累未來零售數位轉型所需要的 Know How 與競爭優勢。在這裡,可以接觸 MarTech (Marketing Tech) 最新尖端產業發展趨勢,同時累積電子商務的產品策略思維,打造用數據賦能零售業者的 SaaS 產品。 【實際接觸到的工作內容】 1. 與 Data & Martech 產品團隊的產品經理、 UX 設計師、前端 Frontend engineer、後端 Backend Engineer 等不同角色密切合作。 2. 打造 91APP 的各項 Data & Martech 產品,包括數據分析報表、用戶分群系統、自動化行銷系統、廣告媒體平台串接...等系統功能。 【期望你具備的基本條件】 1. 熟悉 Node.js 開發。 2. 熟悉 Express.js Web 框架。 3. 有使用 Jest, Mocha 等相關測試經驗。 4. 了解如何建立監控機制來監控服務狀態是否正常。 5. 有至少一種 RDB 相關經驗,例如 MySQL, MSSQL, GCP BigQuery。 6. 精通HTML、CSS、Javascript程式語言,以及React框架。 7. 熟悉 React Hook API。 8. 具備良好的程式邏輯思考能力,能撰寫乾淨、模組化且易維護的程式碼。 9. 了解並能適應 RESTful API 或 GraphQL API 的開發流程。 10. 單元測試、整合測試等軟體測試技巧的經驗,如 Jest or React Testing Library。 11. 熟悉 Git 版本控管基本操作並能理解 Git Flow。 【專屬於你的加分項目】 1. 使用過至少一種 Javascript frameworks,例如 React.js, Vue.js, Angular.js。 2. 使用 CI/CD 優化部署流程經驗。 3. 使用 message broker 相關經驗,例如 RabbitMQ, Kafka。 4. 使用容器化技術建立可擴展服務的經驗,例如 Docker, Kubernetes。 5. 有設計瞬間巨量架構以及大量背景工作架構的經驗。 6. 熟悉 Tailwind CSS(Senior Required)。 7. 熟悉 Redux or XState 等狀態控管庫的使用經驗。 8. 具有 Webpack 或 Vite 等打包工具使用經驗。 9. 具有 Gitlab CI 開發經驗,知道如何撰寫 Yaml 部署應用。 10. 前端元件庫開發經驗。 【立即加入91APP的團隊文化】 擁抱變化:體驗公司在快速發展下的變化,包括產品發展方向、組織調整,快速地進行自我調適。 價值導向:從客戶、公司、團隊的角度去論述價值,用具體的行動創造商業影響,以終為始地推動產品發展。 務實主義:開放地面對問題,從真實場景洞察與定義需求,鼓勵聚焦目標,解決真實的問題,共創更好的產品服務。 ╰╰ ★ 更多更精采的91APP ★ ╯╯ 公司產品介紹: 【91APP 是什麼?我們的願景、產品和客戶成功價值】https://reurl.cc/bXdznr 【新零售劇場:為什麼我們都在91APP?】https://reurl.cc/Ak9RNe 【打造 OMO 虛實融合的核心】 https://www.91app.com/omo-power-circle/ 【91APP 跨境】https://www.91app.com/blog/cross-border-hkmkt 團隊開發日常: 【推一個!!91APPer~這就是RD啦_生活篇】 https://reurl.cc/E2a0qA 【Backend RD 的日常】https://reurl.cc/9ZQmoX 【91APP軟體開發之道】https://happylee.blog/91appway/ 【91APP TechDay 2020 技術論壇】https://reurl.cc/E2a58A 更多影片連結: 【雙11備戰全記錄】https://reurl.cc/a9XNyZ 【雙11戰情之夜 - 獨家曝光】https://reurl.cc/bzyK6r 【91APP面試分享】https://reurl.cc/pxZ444 【客戶案例與新零售知識分享】 http://blog.91app.com
應徵
09/22
台北市松山區1年以上大學
COMMEET (https://commeet.co) 擴大徵才,歡迎有熱情之新夥伴加入我們的行列 [工作內容] 1 整理、標記數據,以確保數據的準確性與可靠性 2 建立/維護/優化資料處理流程與架構(data pipeline) 3 跟相關的stakeholder合作,解決並優化他們的數據需求 4 其它主管交辦事項。 [必要條件] • 從業人員恪守客戶個資保護敏感度及尊重客戶資料隱密性 • 熟悉 ML/DL • 熟悉 python 語言與相關資料庫 (csv、postgres、redis、excel) • 熟悉圖表可視化(Visualization),以及圖表分析能力 • 熟悉 git 版本控制 • 如線上初試通過者,將安排線下複試,複試安排 leetcode [加分項目] • 具有 OCR 處理數據經驗 • 有kaggle 等競賽平台經驗 • 有新創公司經驗 • 有FinTech 或 ERP/CRM 經驗 [人格特質] • 獨立作業的能力 • 細心負責任 • 勇於溝通,樂於表達自己的想法 • 喜歡主動學習新技術,願意與團隊研究及分享技術新知
應徵
09/22
台北市松山區3年以上大學
Position Impact: The Data Engineer is responsible for designing, building, and maintaining data solutions that ensure data is accessible, reliable, and scalable across the company. This role involves working with large-scale databases, identifying hidden risks, and developing solutions that enhance data performance and quality. You will collaborate closely with backend engineers, other data engineers, and product managers to deliver data solutions that align with business objectives. Responsibilities: • Design database structures, schema, and a management database to support high-performance data analytics. • Build dashboard and report interfaces that increase data accessibility to deliver actionable insights to stakeholders to find solutions. • Build up the prediction model to identify and monitor key performance metrics. • Build data tools that boost team working efficiency. Requirement: • Bachelor's degree in Computer Science, Information Management, Statistics or related fields. • 3+ years relevant experience in data engineering or backend development. • Proficiency in Python or Java for building scalable data pipelines or backend services. • Strong knowledge of SQL (query optimization, indexing) and database design principles. • Good communication skills and ability to work cross-functionally with technical and non-technical teams. • Strong analytical and problem-solving skills paired with the ability to develop creative and efficient solutions. Advanced Qualifications • Experiences with Tableau, Starrocks, Flink CDC, or Hadoop will be a plus.
應徵
09/15
云智資訊股份有限公司其它軟體及網路相關業
台北市松山區3年以上專科以上
1. 3年以上 ETL 相關經驗。 2. 熟悉MS SQL、ETL(會Trinity、Greenplum尤佳)。 3. 具有資料分析經驗、細心、負責。 4. 溝通能力良好,可與 SA/PM 或其他 PG 協力合作。
應徵
09/25
文境資科股份有限公司專門設計相關業
台北市大安區1年以上大學以上
Data Engineer/ 資料工程師 1.資料稽核(Data Auditing)、收集(Data Collection)、整合作業(Data Integration) 等資料分析前處理作業 2.有MS SQL server、SSIS、SSRS、SSAS ,或其他ETL工作經驗尤佳 3.具Stored Procedure、Python、.NET、Linux Shell 撰寫經驗 4.對醫療資料分析充滿熱情並具備程式開發之熱忱與積極性 5.以公衛、醫管、資管與統計相關科系優先
應徵
09/22
台北市松山區1年以上高中
【工作內容】 與團隊協作,共同完成各客戶的資料流開發,同時協助團隊梳理與排除運作中的 data pipeline 產生的各種突發程式狀況,並完成記錄與建檔,您應可獨立開發系統串接、大資料清整。在工作過程中,您會與工程團隊、設計團隊、產品團隊溝通協作,完成規劃之項目與習慣自主進度掌控,例如資料串接、資料爬取、數據報告等。 【我們希望你】 一定要對開發工作具有熱情與自我學習不斷精進的渴望,遇到問題時,能獨立查找與判斷解決方案的可行性,若遇到無法解決的問題,也懂得如何清楚論途與提問,樂於與同仁們分享技術新知、提升自我能力,當挑戰尚不熟悉的工作內容時,充滿戰鬥力。 【職務需求】 熟悉 Python, SQL 熟悉 dbt, Airflow (Google Cloud Composer & MWAA) 熟悉 Star Schema / Snowflake Schema 設計 熟悉 Modern Data Stack 熟悉 PostgreSQL, MySQL, MongoDB 任一一種資料庫 【加分項】 熟悉 BigQuery or Redshift 熟悉 Glue or Dataflow 熟悉 Lambda or Cloud Run 【面試流程】 [實體] 一面
➀ 公司文化與價值觀討論
 ➁ 專案經歷與履歷討論
 ➂ 公司介紹(商業模式、團隊組成、工作內容)
 ➃ 公司相關問題 Q & A [線上] 二面 
 ➀ 線上題目,線上題目,用 HackMD 進行,內容包含 SQL、Pandas、ETL 基礎概念 ➁ 情境題(模擬完整商業需求)
應徵
09/25
果友科技有限公司電腦軟體服務業
台北市大安區1年以上學歷不拘
【工作內容】 1. 參與數據資料流程設計、開發與維護,打造高效且穩定的數據基礎架構 2. 使用 Python 進行數據處理,協助將數據應用服務部署與自動化 3. 串接各種 API,進行多元數據收集與整合,讓資料流動更順暢 4. 建立與維護數據倉儲、ETL 流程,確保資料品質與可追溯性 5. 持續優化數據處理效能,提升系統穩定性,與團隊一起解決各種技術挑戰 6. 需派駐至健康管理企業現場 【必備技能】 - Python:具備基礎程式設計能力,熟悉 pandas、numpy 等數據處理套件 - API 整合:能夠串接 REST API,處理 JSON 資料格式 【加分技能】 1. Docker 容器技術:熟悉容器化部署與管理 2. 熟悉雲端平台(AWS、GCP、Azure) 3. 具資訊工程、資訊管理、數學、統計相關背景尤佳 加入果友科技,和我們一起用數據創造影響力! 有興趣歡迎投遞履歷或直接聯繫我們,期待你的加入!
09/17
創代科技股份有限公司工商顧問服務業
台北市中山區1年以上碩士以上
我們正在尋找一位 Mid-Level 的數據工程師 (Data Engineer),主要負責 資料庫建置、ETL 流程設計與開發、數據處理與分析。目前創代科技曾執行過的專案包含了 大型語言模型產品開發(涵蓋雲端、地端、雲地混合方案)、深度學習開發(產品洞察與行為預測、時間序列預測、路線最佳化)、機器學習應用(各產業客戶的資料探勘與分析)、數據中台建置(含資料正規化、ETL 建置、導入 dbt、snowflake)!我們現在手上有各種類型的專案等著你來玩! 為什麼選擇創代科技? 創代科技是一家提供數據科學顧問服務的公司,業務涵蓋 零售、交通、物流、航運、電信、能源、犯罪、災防 等多元領域,並持續拓展至其他前沿產業。在這裡,你將接觸到多樣化的數據場景,包括乾淨度各異的資料與高度客製化的架構設計,讓你在解決各種挑戰中快速成長。 如果你熱愛學習新技術、探索創新解決方案,那麼在創代擔任數據工程師,將是你的最佳選擇。 ✅ 【職責內容】 1. 資料庫設計:熟悉資料庫概念,協助建置與維護資料倉儲、資料湖跟資料中臺。 2. ETL 或 ELT 流程開發:協助客戶建立基於地端或是雲端的資料流架構,整合多元數據來源(結構化與非結構化),構建高效數據處理系統,確保資料一致性與完整性。 3. 數據處理與協作:與資料科學家、資料分析師及後端工程師協作,處理 Data Pipeline 建置及數據收集、探勘與轉換。 4. 協助客戶工具導入:協助客戶翻新原有 Pipeline,並導入 dbt、snowflake等。 ✅ 【我們期待你具備】 1. 學歷背景:具備碩士學位, 資訊工程、資訊管理、資料科學、數學、統計、電機相關領域加分。 2. 專業技能: - 熟悉數據處理與分析,具備 ETL / ELT 流程開發與維護經驗。 - 熟悉 關聯式資料庫(如 PostgreSQL)及 圖形資料庫(如 Neo4j),擁有資料倉儲建置與操作經驗。 - 熟悉 Linux 環境,並具備版本控制工具(如 Git)使用經驗。 - 熟悉 容器化技術(如 Docker、Kubernetes),了解其生產環境運行與管理。 - 具備 Airflow 排程管理及模型部署經驗。 ✅ 【加分條件】 - 雲端服務:熟悉 GCP、AWS、Azure,具備跨雲架構整合及服務部署能力。 - 分散式系統:有 Hadoop、Spark 開發經驗者尤佳。 - 資料庫工具:具備 dbt 或是 snowflake 導入或是使用經驗。 - DevOps 經驗:具備 CI/CD 自動化部署實作經驗。 - BI 工具:熟悉 Tableau、Looker、Power BI。 - 演算法基礎:理解機器學習、深度學習背後邏輯或是應用經驗。 ✅ 【薪資待遇】 - 面議,保障年薪 14 個月。 ✅ 【公司福利】 - 彈性上下班時間、彈性居家上班福利。 - 每月享有職員不扣薪福利假、生日當月再多一天生日假。 - 不定期員工聚餐、午餐、下午茶、出遊團康活動等。 - 公司零食區、冰箱飲料、咖啡櫃永遠補給充足,讓每位新進夥伴都保證先胖五公斤! - 保障年終獎金 2 個月,其他績效獎金還可以靠自己爭取,亦提供結婚、生育等各項禮金。 - 電腦設備:公司提供工作機,亦可自備設備並領取每月電腦補助費。 - 每年提供教育訓練補助。 - 提供定期健康檢查補助。 - 每年定期進行績效考核,讓職員的升遷與薪資調整更有依據與保障。 ✅ 此職缺定位為 Mid-Level,尋找 1 - 3 年經驗的人選
應徵
09/25
域動行銷股份有限公司廣告行銷公關業
台北市松山區1年以上大學以上
公司介紹: 域動行銷是中華電信集團轉投資公司之一,成立於2009年,致力於提供創新的數位廣告解決方案,當中包含廣告系統DSP、SSP、CDP、混血數據及廣告聯播網等,我們通過創新的行銷技術解決方案來推動廣告和數據分析的發展,同時專注於行銷科技領域,提供前瞻性的觀點,引領數據行銷的未來。 組織介紹: 域動Data Team是由一群對『數據分析』及『AI應用』具有研究及開發熱誠的成員所組成。在這裡你可以接觸到大量即時的使用者行為資料,並將資料科學模型應用於: 『網路廣告投放優化』 『網路用戶辨識』 『消費者行為分析』 我們更致力於尋找優化方案,改善產品體驗設計及為商業決策提供數據支持,提升效率和價值。我們鼓勵組員多方嘗試、思考、展現天馬行空的創意,且能清楚闡述想法,付諸實踐。 【Job Description】 • 須熟悉python, 尤其是對pyspark操作有經驗 • 具備優化資料流和處理效率的專業知識,以及處理每日一億筆記錄的資料吞吐量的經驗 • AWS、GCP 等雲端平台的實務經驗 • 熟練開發強大的data pipeline,包括資料收集和 ETL(擷取、轉換、載入)流程 • 具備設計和實施資料平台各種元件的經驗,包括資料攝取、儲存、資料倉儲、資料編排 • 持續整合和持續部署(CI/CD)流程的經驗 【Qualifications】 1. 熟悉 ML 相關知識 2. 熟悉Python程式語言,以pyspark模組為主 3. 熟悉Linux 系統操作 4. 熟悉資料庫程式語言 SQL 【Preferred Qualifications】 1.具備機器學習平台經驗,例如 KubeFlow、MLflow 或 Vertex AI 2.具備API設計與實作經驗 3.具備使用 AWS Kinesis、Spark Streaming 等串流工具的經驗 4. 具有數位廣告相關經驗 6. 具有分散式運算的相關知識,如 Spark、Hadoop、Hive 7. 有使用過GCP, AWS 等雲端服務經驗佳 【加分項目】 熟悉scale, JAVA 熟悉資料湖相關技術 統計學專長
應徵
09/22
台北市中山區2年以上大學
您將是我們數據驅動文化的核心奠基者, 您所建立的數據管道將直接賦能公司做出更智慧的商業決策。 1. 數據平台開發與維運: - 負責設計、建置與維護數據 ETL/ELT 管道,確保數據從源頭穩定、高效地流入數據平台 - 開發自動化監控與預警系統,追蹤排程狀態、效能與數據品質,確保數據中台的穩定運行 2. 數據模型實作與優化: - 與數據分析師合作,完成數據模型的資料清洗與轉換,確保數據質量與一致性 - 設計與開發數據驗證與監控機制,提高數據完整性與準確性 3. 數據治理工具實施: - 實作Data Lineage追蹤,並導入數據目錄工具,以提升數據資產的透明度與可信度 4. 技術研究與新技術導入: -研究與評估新技術,提升數據處理、分析與儲存架構的效能 -針對機器學習或 AI 應用,進行數據架構建置與最佳化準備 【我們需要你具備】 1. 具備至少 2 年 的資料工程師經驗。 2. 熟悉雲端數據平台,具備 Databricks 或其他相關雲端服務(如 AWS、Azure、GCP)的使用經驗。 3. 精通 SQL,具備複雜數據處理與效能調優的能力。 4. 具備 Python/PySpark 或其他編程語言的開發能力。 5. 熟悉 ETL/ELT 流程設計與數據倉儲概念。 6. 對數據治理(Data Governance)、元數據管理(Metadata Management)有基本概念。
09/23
台北市中山區2年以上大學
【工作內容】 1. 將概念性想法設計規劃為可執行的解決方案 2. 大數據專案的規劃,數據接入、清洗、建模與可視化的設計 3. 與機器學習工程師、雲端架構師、PM密切合作共同合作完成專案,供客戶高質量的雲端數據相關服務 4. 負責協助客戶整合、設計、部署大數據處理流程與平臺 5. 探索雲端服務組合的可能性,創造全新的可能性 【必備技能/條件】 1. 3 年以上資料排程、處理、清洗、分析的實務經驗 2. 2 年以上資料處理常用的 Open Source 工具的實務經驗,eg. Spark, Airflow, hadoop 3. 2 年以上Python / Java 程式語言開發相關工作經驗 4. 擅長解決問題、除錯、故障排除,提出問題解決方案 【加分條件】 1. 具備BigQueryRDBMSNoSQL使用經驗 2. 具備爬蟲相關經驗 3. 熟悉 Restful API
應徵
09/19
台北市信義區5年以上大學以上
About the Opportunity: We're seeking a highly motivated and experienced Data Engineer to join our growing team at BTSE. You will play a critical role in designing, implementing, and maintaining our data infrastructure, with a focus on cloud-based solutions. You will work closely with the Senior Data Engineer to ensure the efficient and reliable delivery of data to support various business needs. Key Roles & Responsibilities: ●Design, implement, and maintain data infrastructure, including cloud-based solutions (AWS preferred). ●Develop and optimize ETL pipelines for performance, scalability, and reliability. ●Collaborate with the Senior Data Engineer to ensure data quality and integrity. ●Explore options to upgrade and replace existing systems to improve efficiency and reduce manual effort. ●Proactively identify and resolve data-related issues. ●Stay up-to-date with the latest data engineering technologies and best practices. Qualifications: ●Bachelor's degree in Computer Science, Information Technology, or a related field. ●3+ years hands on experience in cloud technology and data engineering. ●Working experience in GIT, GitLab ●Strong knowledge of database design principles, backup and recovery strategies, security best practices, and performance tuning techniques. ●Proficiency in database management systems such as MySQL, PostgreSQL, Oracle, or SQL Server. ●Solid experience with cloud-based database services (e.g., AWS RDS, Azure SQL Database) is preferred. ●Excellent analytical and problem-solving skills. ●Strong communication and interpersonal skills. ●(Mandatory) : Able to independently hit the ground running with development tasks.
應徵
09/25
台北市松山區3年以上大學
1.負責設計和維護高效且可擴展的雲地混合數據架構 2.設計及開發巨量資料 data pipeline,包含結構化資料、半結構化資料及非結構化資料,並建立自動化監控機制 3.評估與導入 modern data stack,用以解決以下問題:data governance, data quality, data lineage, MLOps 4.制定和實施數據治理策略,並使用元數據管理工具 (例如 GCP Dataplex) 來管理數據資源和數據資源血緣關係 5.負責維護 Airflow 平台,協助資料科學家進行數據處理、分析和建模工作流程管理,並設計部署策略、監控機制,以確保服務穩定性 104僅供職缺參考,若您對此職缺有興趣,請至本行「玉山菁英甄選網站」投遞履歷,如書審通過,後續將邀請您參加面談。謝謝! 【網址:https://esnhr.pse.is/394b2n 】
應徵
09/24
天下雜誌股份有限公司雜誌/期刊出版業
台北市中山區2年以上大學以上
【職責】 1. 參與設計與維護數據基礎設施和數據管線 (Data pipeline - ETL/ELT) ,以支援關鍵業務應用 (如MarTech、AdTech、CDP、CRM、推薦系統、標籤等) 與數據應用需求 2. 協助進行數據創新應用和架構研究,特別是支援 AI/ML 專案的數據準備與供應,並參與新興數據技術的研究與導入 (如 Gen AI 相關數據集技術或 Data Lakehouse) 3. 協助執行數據品質、治理與安全相關任務,確保數據的準確性、完整性與合規性 4. 具備獨立執行數據工程任務的能力,負責從概念發想到最終部署的完整流程。同時,與團隊成員緊密協作,共同完成專案,以確保最終成果符合部門的發展目標與方向。 5. 與數據分析師、專案經理、業務團隊及 IT 部門協作, 理解業務需求並協助轉化為技術性數據解決方案 6. 積極學習新技術,並能與團隊成員有效協作、分享知識 【工作內容】 1. 開發、維護和優化複雜的批次和即時數據管線,從多個異質數據源 (包括但不限於 MarTech、AdTech、CDP、CRM、Events log等) 擷取、轉換與載入數據 2. 參與建構與維護基於雲端的數據儲存與處理架構,如數據湖 (Data Lake) 或數據湖倉 (Data Lakehouse),確保系統穩定運行 3. 建構與維護 AI/ML 應用所需的數據集,包括特徵工程數據管線,並研究與實現為 LLM 應用準備數據的機制 (如 MCP 或 RAG 相關數據流程) 4. 參與設計與開發數據服務層 (Data Serving),提供數據 API 或串流數據供下游應用使用 5. 優化現有數據系統和查詢效能,進行效能調校,降低數據處理延遲,提升系統效率 6. 操作與維護自動化的數據流程管理機制,使用 Airflow 等工具進行任務排程與監控 7. 協助建立與維護自動化測試、監控和警報機制,以確保數據平台穩定運行 8. 執行數據治理框架下的具體任務,例如追蹤數據血緣 (Data Lineage),並確保數據處理符合相關法規 9 . 持續學習新興數據技術和行業趨勢 (如 Data Lakehouse, Gen AI 相關技術),並與團隊分享 【技能要求】 1. 具備數據工程相關工作經驗 2 年以上 2. 熟悉 Python 和 SQL,具備良好的程式撰寫能力與數據庫操作能力 3. 具備 Data Orchestration 的實務經驗,熟悉 Airflow 的工作流開發與維護 4. 熟悉至少一個主流雲端平台 (GCP 優先考慮),並對其數據相關服務具備使用經驗 (例如:GCP 的 BigQuery, Cloud Storage, Dataflow, Pub/Sub, Cloud Run, Vertex AI, Composer等) 5. 熟悉數據倉儲 (Data Lakehouse) 或數據湖 (Data Lake) 的概念,並具備協助建構或維護的經驗 6. 熟悉 Git 版本控制系統和 CI/CD 流程 7. 理解數據安全原則、存取控制、數據加密和數據治理概念 【部門介紹】 天下雜誌集團的數據工程師,是數位創新團隊不可或缺的數據架構基石,肩負著以數據賦能的核心使命。此職位的核心職責在於設計、建構並維護高效、穩健的數據基礎設施與數據管線,透過確保數據品質與可用性,以支援推薦系統、CRM、AI/ML 等關鍵應用。我們將與數據工程師攜手,共同推動內容及商務營運目標,將數據驅動的文化深植於日常工作中。 集團旗下擁有《天下》、《康健》、《天下學習》、《親子天下》等知名品牌,涵蓋財經管理、健康生活、工作職場與親子教育等領域。對數據團隊而言,我們就像多家公司合體運作,每個品牌都有獨特的商業模式與需求。從電商、內容訂閱到線上教育的數據應用,你都將有機會深入參與,發揮專業價值,探索多元場景。
應徵