104工作快找APP

面試通知不漏接

立即安裝APP

「【研發處】資料工程師」的相似工作

極風雲創股份有限公司
共500筆
09/29
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
10/01
群越廣告科技有限公司電腦軟體服務業
台北市松山區3年以上大學以上
我們尋找一位資料敏銳度高、擁有穩健工程實作力的資料工程師,加入我們的遊戲推薦系統開發團隊! 這個職位非常適合熟悉 資料處理流程、具備 API 設計與部署經驗、懂得 推薦模型訓練實務,並熱衷於將 AI 技術應用在真實產品場景中的人才。 你將參與我們打造高效能推薦系統的核心挑戰之一:處理高頻率、多次存取的推薦查詢問題(Multiple Access / Frequent Access Patterns)。在實務上,推薦系統需支援大量使用者在極短時間內反覆觸發推薦請求(如首頁刷新、排行榜滑動、活動推薦等),對於資料快取策略、查詢優化、線上/離線計算資源分配都提出極高要求。 我們期望你能透過設計 穩定高效的資料管線與特徵服務(Feature Store),結合良好的 API 封裝,確保推薦服務在多次存取場景下依然具備良好延遲控制與回應品質,讓系統在真實流量下穩健運作、持續為玩家提供個性化、即時的推薦體驗。 線上視訊筆試,請 share screen 解題: Python 操作 SQL 語法(PyMySQL) Flask API 封裝與邏輯設計 Numpy 矩陣操作與轉換 Multithreading 多執行緒概念與應用 PyTorch 假碼撰寫與推薦演算法說明 必備條件(務必具備): Python 資料處理能力強,熟悉生態系統:pandas、numpy、pyMysql、SQLAlchemy 熟練 SQL 查詢與資料倉儲操作,具備處理大型資料集的經驗 實際操作過 Flask API 設計與服務包裝 理解推薦系統與分類/排序模型的運作,具備實作經驗 熟悉模型部署工具,例如 Flask / FastAPI、joblib、ONNX、MLflow 等 具備跨部門溝通能力與資料產品思維,能獨立拆解與解決資料問題 加分條件(非必要,但會加分) 使用過雲端資料平台:BigQuery、Snowflake、Redshift 有推薦模型訓練與優化經驗:如 DNN-based 矩陣分解、Pairwise Ranking、Embedding 模型 熟悉 強化學習、Bandit Algorithm 在推薦系統中的應用 曾設計過 AB test 並執行評估分析 實作過 Feature Store、推薦 pipeline 框架設計經驗
應徵
10/02
極風雲創股份有限公司網際網路相關業
台北市信義區3年以上大學
工作內容 極風雲創致力於拓展 AI 驅動的應用資安智能解決方案與服務,我們正在尋找具備創新思維與跨領域整合能力的AI/ML訓練工程師,一起打造具影響力的產品,推動企業數位轉型與智慧防禦。 【主要職責】 負責AI腦訓練與管理,將資料收集後,進行Fine-tune 或者RAG,依照情境需求,針對不同場景進行訓練與AI品質與回答精準度度提升。 職務說明 • 數據標註與整理: 收集、分類、標註大量的數據(如文字、圖像),並進行預處理,為AI模型提供訓練所需的資料 • 優秀的 溝通與協調能力,能快速理解問題並提出具體解決方案。 • 具備AI訓練、FineTune or LLM等大型機器語言技術相關經驗。 • 對 AI 應用、雲端平台或資安領域 有濃厚興趣或相關經驗。 • 與資安工程師以及資料工程師協同合作,針對資安的AI模型調整精度,提升AI在資安領域上的benchmark跑分。 我們提供 • 參與 AI + 資安 相關產品研發,影響未來數位防禦的機會。 • 彈性且具挑戰性的工作環境,鼓勵創新與跨域合作。 • 完整的職涯發展與學習資源,讓你在 AI 與雲端資安領域快速成長。 【 職位條件】 • 電腦科學、資訊工程、資訊管理或相關科系學士/碩士學位 • 具備 AI相關產品開發相關背景者佳 • 具備問題解決、創新能力,推動團隊達成目標
應徵
10/01
天下雜誌股份有限公司雜誌/期刊出版業
台北市中山區2年以上大學以上
【職責】 1. 參與設計與維護數據基礎設施和數據管線 (Data pipeline - ETL/ELT) ,以支援關鍵業務應用 (如MarTech、AdTech、CDP、CRM、推薦系統、標籤等) 與數據應用需求 2. 協助進行數據創新應用和架構研究,特別是支援 AI/ML 專案的數據準備與供應,並參與新興數據技術的研究與導入 (如 Gen AI 相關數據集技術或 Data Lakehouse) 3. 協助執行數據品質、治理與安全相關任務,確保數據的準確性、完整性與合規性 4. 具備獨立執行數據工程任務的能力,負責從概念發想到最終部署的完整流程。同時,與團隊成員緊密協作,共同完成專案,以確保最終成果符合部門的發展目標與方向。 5. 與數據分析師、專案經理、業務團隊及 IT 部門協作, 理解業務需求並協助轉化為技術性數據解決方案 6. 積極學習新技術,並能與團隊成員有效協作、分享知識 【工作內容】 1. 開發、維護和優化複雜的批次和即時數據管線,從多個異質數據源 (包括但不限於 MarTech、AdTech、CDP、CRM、Events log等) 擷取、轉換與載入數據 2. 參與建構與維護基於雲端的數據儲存與處理架構,如數據湖 (Data Lake) 或數據湖倉 (Data Lakehouse),確保系統穩定運行 3. 建構與維護 AI/ML 應用所需的數據集,包括特徵工程數據管線,並研究與實現為 LLM 應用準備數據的機制 (如 MCP 或 RAG 相關數據流程) 4. 參與設計與開發數據服務層 (Data Serving),提供數據 API 或串流數據供下游應用使用 5. 優化現有數據系統和查詢效能,進行效能調校,降低數據處理延遲,提升系統效率 6. 操作與維護自動化的數據流程管理機制,使用 Airflow 等工具進行任務排程與監控 7. 協助建立與維護自動化測試、監控和警報機制,以確保數據平台穩定運行 8. 執行數據治理框架下的具體任務,例如追蹤數據血緣 (Data Lineage),並確保數據處理符合相關法規 9 . 持續學習新興數據技術和行業趨勢 (如 Data Lakehouse, Gen AI 相關技術),並與團隊分享 【技能要求】 1. 具備數據工程相關工作經驗 2 年以上 2. 熟悉 Python 和 SQL,具備良好的程式撰寫能力與數據庫操作能力 3. 具備 Data Orchestration 的實務經驗,熟悉 Airflow 的工作流開發與維護 4. 熟悉至少一個主流雲端平台 (GCP 優先考慮),並對其數據相關服務具備使用經驗 (例如:GCP 的 BigQuery, Cloud Storage, Dataflow, Pub/Sub, Cloud Run, Vertex AI, Composer等) 5. 熟悉數據倉儲 (Data Lakehouse) 或數據湖 (Data Lake) 的概念,並具備協助建構或維護的經驗 6. 熟悉 Git 版本控制系統和 CI/CD 流程 7. 理解數據安全原則、存取控制、數據加密和數據治理概念 【部門介紹】 天下雜誌集團的數據工程師,是數位創新團隊不可或缺的數據架構基石,肩負著以數據賦能的核心使命。此職位的核心職責在於設計、建構並維護高效、穩健的數據基礎設施與數據管線,透過確保數據品質與可用性,以支援推薦系統、CRM、AI/ML 等關鍵應用。我們將與數據工程師攜手,共同推動內容及商務營運目標,將數據驅動的文化深植於日常工作中。 集團旗下擁有《天下》、《康健》、《天下學習》、《親子天下》等知名品牌,涵蓋財經管理、健康生活、工作職場與親子教育等領域。對數據團隊而言,我們就像多家公司合體運作,每個品牌都有獨特的商業模式與需求。從電商、內容訂閱到線上教育的數據應用,你都將有機會深入參與,發揮專業價值,探索多元場景。
應徵
10/03
台北市大安區3年以上大學以上
【About Us】 歡迎加入「國泰健康管理」!我們是一個充滿活力、追求創新、以數據和科技驅動健康管理變革的團隊!在這裡,你將與一群熱愛科技、關心健康、充滿創造力的夥伴並肩作戰,共同探索智能健康的無限可能。 我們相信「想要健康不能靠感覺」,而是基於精準數據的科學管理。 我們的使命是:整合數位、數據和 IT 技術,打造個人化的健康管理解決方案,讓人人都能擁有健康自信的人生,實踐『健康就在生活裡,解方就在數據裡』 【We Need You to …】 1.應用服務開發與維護 • 開發與維護數據應用服務(API),確保業務服務穩定運行。 • 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 • 建立與管理 CI/CD Pipeline,提升開發與部署效率。 • 持續監控服務效能,進行問題排查、升級與最佳化。 【About You】 • 熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 • 熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 • 了解容器化技術(Docker、Kubernetes)。 • 了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【Plus】 • 具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 • 具備 Terraform 或其他 IaC 工具經驗。 • 具備 DevOps / Cloud Engineer 相關工作經驗。 • 具備網路/資訊安全管理經驗。 • 具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
09/30
台北市大同區經歷不拘大學
- 資料流基礎設施設計與維運:處理 TB 級數據 - 資料庫架構設計與優化:參與數據中臺核心建設 - 跨部門資料服務支持:與 資料科學、業務決策 深度連結 - 資料治理與安全合規 - 公有雲資料工程相關經驗
應徵
09/30
台北市中山區2年以上大學
【工作內容】 1. 將概念性想法設計規劃為可執行的解決方案 2. 大數據專案的規劃,數據接入、清洗、建模與可視化的設計 3. 與機器學習工程師、雲端架構師、PM密切合作共同合作完成專案,供客戶高質量的雲端數據相關服務 4. 負責協助客戶整合、設計、部署大數據處理流程與平臺 5. 探索雲端服務組合的可能性,創造全新的可能性 【必備技能/條件】 1. 3 年以上資料排程、處理、清洗、分析的實務經驗 2. 2 年以上資料處理常用的 Open Source 工具的實務經驗,eg. Spark, Airflow, hadoop 3. 2 年以上Python / Java 程式語言開發相關工作經驗 4. 擅長解決問題、除錯、故障排除,提出問題解決方案 【加分條件】 1. 具備BigQueryRDBMSNoSQL使用經驗 2. 具備爬蟲相關經驗 3. 熟悉 Restful API
應徵
10/03
朋昶數位科技股份有限公司電腦系統整合服務業
台北市中山區3年以上大學
MongoDB、IBM DB2、Cloudera等產品之協銷與建置服務工作 1. 針對資料庫產品提供架構規劃及系統建置 2. 偕同業務與客戶進行產品介紹、架構規劃簡報 3. 參與公司產品推廣活動、擔任資料庫訓練講師
應徵
09/10
台北市南港區5年以上大學
Job Summary We are seeking a highly skilled and experienced Senior Data Engineer to join our growing data team. In this role, you will design, build, and maintain scalable data pipelines and infrastructure that support analytics, machine learning, and business intelligence initiatives. You will work closely with data scientists, analysts, and software engineers to ensure data is accessible, reliable, and secure. Key Responsibilities ■ Design and implement scalable data pipelines for real-time streaming and batch ETL/ELT processing. ■ Architect data storage solutions (data lakes, warehouses) to support diverse analytics and ML needs. ■ Develop and optimize real-time data streaming systems and corresponding dashboards. ■ Ensure data quality, integrity, security, and governance across systems. ■ Plan and execute data collection, storage, and maintenance strategies for varied requirements. ■ Collaborate with data scientists, analysts, and stakeholders to deliver business-driven data solutions. ■ Mentor junior engineers and promote data engineering best practices. ■ Monitor and enhance data infrastructure performance and scalability. Qualifications ■ 5+ years of data engineering experience. ■ Expertise in SQL, Python, and big data tools (e.g., Spark, Kafka). ■ Familiar with data representation tools (e.g., Tableau, Looker Studio, Superset). ■ Proficiency with cloud platforms (e.g., GCP, AWS, Azure) and data services (e.g., BigQuery, Snowflake). ■ Proven experience in real-time streaming systems, dashboard development, and large-scale ETL design. ■ Strong knowledge of data modeling, governance, and security practices. ■ Bachelor’s degree in Computer Science, Engineering, or related field (Master’s preferred). ■ Excellent problem-solving, collaboration, and communication skills.
應徵
09/30
達暉資訊有限公司電腦系統整合服務業
台北市大安區2年以上高中以上
【提升價值 × 創造可能 × 一起成長】 歡迎來到這裡,看到這段話的你,我們相信你不是在隨便找工作,而是在找一個「值得待下去的地方」 或許這裡就是你下一段旅程的開始! 我們是達暉,一群熱愛技術也在意生活的夥伴 這裡沒有所謂「完美履歷」的標準答案 有的是一個個願意嘗試、學習、合作的工程師,一起把事情做得更好 我們喜歡技術,也喜歡分享 過去辦過線上分享、讀書會、生活體驗課程,還會一起登山、玩桌遊、吃飯聊未來 你的成長不是被要求,而是被支持與期待 我們不只寫程式,也關心彼此的生活 歡迎你加入,讓我們一起邁向專業與樂趣兼具的未來 °o‧° °o‧° °o‧° °o‧° °o‧° °o‧° °o‧° °o‧° °o‧° °o‧° °o‧° °o‧° °o‧° °o‧° °o‧° °o‧° °o‧° °o‧° ▍必要條件: ※ 科系要求︰資訊工程相關、資訊管理相關畢業 ▍加分條件: ※ 具備 Web 或 APP 2 年以上程式開發經驗 ※ 資安相關證照 ※ 熟悉 SDLC / DevOps ※ 善溝通協調與團隊合作 ▍工作內容 ※ 原始碼弱點掃描工具(fortify)建置、維護及技術支援。 ※ 原始碼弱點顧問諮詢服務 ※ SSDLC/DevSecOps 導入/教育訓練 ※ 服務報告與資安相關文件撰寫 ▍人格特質: ※ 樂於學習分享 ※ 良好溝通能力 ※ 追求程式品質 ▍您能獲得: ※ 透過知名專案歷練,讓未來更好找工作。 ※ 未來職涯規劃諮詢,了解定位擬訂計畫。 ※ 線上技術訓練課程,隨時隨地都可學習。 ※ 多元化生活體驗課,一同創造美好回憶。
應徵
08/13
台北市南港區經歷不拘大學
工作內容: 開發與維護自動化數據處理流程(ex: Pipeline、Airflow) 建置並優化各式網路爬蟲(ex: Requests、Playwright、Scrapy ) 使用 Django 開發後端服務與 API,串接資料庫與前端系統 操作並優化資料庫(MariaDB、Redis),確保效能與穩定性 在 AWS(EC2、S3、RDS 等)環境中部署、監控與維運服務 協作AI應用模型 必備條件: 熟悉 Python,能獨立開發爬蟲、資料處理與 API 熟悉 Django 後端框架與 RESTful API 開發 熟悉 SQL(MariaDB)與快取系統(Redis) 具備自動化排程與數據管道開發經驗 具備 AWS 雲端平台使用經驗(EC2、S3、RDS 等) 良好的溝通能力與跨部門協作經驗 加分條件: 熟悉 Docker 具備前端基礎(HTML / CSS / JavaScript)可進行簡單資料視覺化 具備 機器學習或深度學習專案經驗
應徵
09/30
沛然資訊有限公司電腦軟體服務業
台北市內湖區3年以上碩士以上
Risksoft Technology Ltd, 沛然科技有限公司專注於金融科技(FinTech)與應用,致力於將金融數據與決策模型轉化為高效、且行動的專業工具。 客戶涵蓋銀行、券商、量化基金、私募機構與企業財務部門,產品應用於資產配置、風險監控與跨市場操作等關鍵場景中。我們開發可用於決策的高互動行動應用,誠摯邀請對產品品質與金融邏輯有熱情的夥伴加入我們的團隊。 【工作內容】 1. 台清交成資工系學碩士優先 2. 優秀IT科技理工且對量化投資有興趣者 3. 負責開發、建設及管理公司資料基礎架構,協助團隊實現數據的收集、處理及儲存,確保資料的可用性、準確性和安全性 4. 設計並實施高效的資料管道(ETL流程) 5. 管理並維護資料庫和資料存儲系統 6. 資料整合與處理,包括從多個來源收集資料並轉換為可分析的格式 7. 協作開發數據基礎設施,支援資料科學家和分析師的需求 8. 進行資料的清洗、變換及加載,確保數據質量 9. 與產品及技術團隊合作,確保資料架構的擴展性與穩定性
應徵
10/02
台北市松山區1年以上大學
COMMEET (https://commeet.co) 擴大徵才,歡迎有熱情之新夥伴加入我們的行列 [工作內容] 1 整理、標記數據,以確保數據的準確性與可靠性 2 建立/維護/優化資料處理流程與架構(data pipeline) 3 跟相關的stakeholder合作,解決並優化他們的數據需求 4 其它主管交辦事項。 [必要條件] • 從業人員恪守客戶個資保護敏感度及尊重客戶資料隱密性 • 熟悉 ML/DL • 熟悉 python 語言與相關資料庫 (csv、postgres、redis、excel) • 熟悉圖表可視化(Visualization),以及圖表分析能力 • 熟悉 git 版本控制 • 如線上初試通過者,將安排線下複試,複試安排 leetcode [加分項目] • 具有 OCR 處理數據經驗 • 有kaggle 等競賽平台經驗 • 有新創公司經驗 • 有FinTech 或 ERP/CRM 經驗 [人格特質] • 獨立作業的能力 • 細心負責任 • 勇於溝通,樂於表達自己的想法 • 喜歡主動學習新技術,願意與團隊研究及分享技術新知
應徵
10/03
台北市中山區2年以上大學
您將是我們數據驅動文化的核心奠基者, 您所建立的數據管道將直接賦能公司做出更智慧的商業決策。 1. 數據平台開發與維運: - 負責設計、建置與維護數據 ETL/ELT 管道,確保數據從源頭穩定、高效地流入數據平台 - 開發自動化監控與預警系統,追蹤排程狀態、效能與數據品質,確保數據中台的穩定運行 2. 數據模型實作與優化: - 與數據分析師合作,完成數據模型的資料清洗與轉換,確保數據質量與一致性 - 設計與開發數據驗證與監控機制,提高數據完整性與準確性 3. 數據治理工具實施: - 實作Data Lineage追蹤,並導入數據目錄工具,以提升數據資產的透明度與可信度 4. 技術研究與新技術導入: -研究與評估新技術,提升數據處理、分析與儲存架構的效能 -針對機器學習或 AI 應用,進行數據架構建置與最佳化準備 【我們需要你具備】 1. 具備至少 2 年 的資料工程師經驗。 2. 熟悉雲端數據平台,具備 Databricks 或其他相關雲端服務(如 AWS、Azure、GCP)的使用經驗。 3. 精通 SQL,具備複雜數據處理與效能調優的能力。 4. 具備 Python/PySpark 或其他編程語言的開發能力。 5. 熟悉 ETL/ELT 流程設計與數據倉儲概念。 6. 對數據治理(Data Governance)、元數據管理(Metadata Management)有基本概念。
09/30
株式会社シエス情報電腦系統整合服務業
日本3年以上大學以上
招募台灣地區工程師 公司提供簽證的更新以及新規簽證。 可提供高度人才簽證(5年)額外加20分,提早取得永久居留權。 執行案件為一般商業、金融案件居多,會派至委託公司駐點或在宅。 【工作內容】 1.負責軟體之分析、設計以及程式撰寫。 2.規劃執行軟體架構及模組之設計,並控管軟體設計進度。 3.進行軟體之測試與修改。 4.規劃、執行與維護量產的產品。 5.協助研發軟體新技術與新工具。 【工作職缺】Python軟體開發工程師(工作經驗三年以上) 【徵求條件】JAVA,NET,C#C,C++,Python,salesforce,SAP,PHP,IOS,Android,AWS,React.Ruby.C# (其中有一至兩項擅長的項目歡迎詢問) *無日文N1以上(可無檢定證書,但需聽說讀寫流利)請勿投遞履歷,國外遠端工作不可* 【工作地點】日本關東地區 【工作時間】9:00-18:00 中午休息1小時(依客戶現場為主) 【公司制度】1.提供雇用保險、健康保險、年金保險 2.完全週休2日、GW/夏休/年末年始連休 3.工作產生的交通費實報實銷 4.一年一度健康檢查
應徵
10/02
台北市松山區1年以上高中
【工作內容】 與團隊協作,共同完成各客戶的資料流開發,同時協助團隊梳理與排除運作中的 data pipeline 產生的各種突發程式狀況,並完成記錄與建檔,您應可獨立開發系統串接、大資料清整。在工作過程中,您會與工程團隊、設計團隊、產品團隊溝通協作,完成規劃之項目與習慣自主進度掌控,例如資料串接、資料爬取、數據報告等。 【我們希望你】 一定要對開發工作具有熱情與自我學習不斷精進的渴望,遇到問題時,能獨立查找與判斷解決方案的可行性,若遇到無法解決的問題,也懂得如何清楚論途與提問,樂於與同仁們分享技術新知、提升自我能力,當挑戰尚不熟悉的工作內容時,充滿戰鬥力。 【職務需求】 熟悉 Python, SQL 熟悉 dbt, Airflow (Google Cloud Composer & MWAA) 熟悉 Star Schema / Snowflake Schema 設計 熟悉 Modern Data Stack 熟悉 PostgreSQL, MySQL, MongoDB 任一一種資料庫 【加分項】 熟悉 BigQuery or Redshift 熟悉 Glue or Dataflow 熟悉 Lambda or Cloud Run 【面試流程】 [實體] 一面
➀ 公司文化與價值觀討論
 ➁ 專案經歷與履歷討論
 ➂ 公司介紹(商業模式、團隊組成、工作內容)
 ➃ 公司相關問題 Q & A [線上] 二面 
 ➀ 線上題目,線上題目,用 HackMD 進行,內容包含 SQL、Pandas、ETL 基礎概念 ➁ 情境題(模擬完整商業需求)
應徵
09/29
億力資訊股份有限公司電腦軟體服務業
台北市松山區2年以上專科
必要條件: 1. 熟悉MS SQL SERVER ENTERPRISE ADDITION 2016.2019版本 2. 熟悉DB CLASTER 2. 有效能調校經驗 工作內容: 1.安裝和配置:負責將Unix/Linux作業系統安裝在硬體設備上,並進行必要的配置,例如設置網絡參數、安全設置等。 2.監控和優化:定期監控系統的性能和運行狀況,識別潛在的問題和瓶頸,並進行必要的優化調整,以確保系統的高效運作。 3.安全管理:實施安全措施,防止未授權的訪問和惡意攻擊,保護系統和數據的安全。 4.故障排除:及時處理系統故障和問題,迅速恢復系統的正常運行,減少損失和影響。 5.更新和升級:定期進行系統軟體和應用程序的更新和升級,以確保系統的穩定性和安全性。
應徵
10/04
台北市南港區7年以上大學以上
【崗位職責】 1) 負責公司內部資料平臺的規劃、開發與持續優化,保障資料的完整性、可用性與安全性。 2) 基於 AWS 雲平臺及主流服務(如 EC2、S3、Redshift、Glue、Lambda、Athena 等)設計並實現高可用、高性能的資料處理與分析系統。 3. 設計並實施可擴展的後端服務,支援資料流程處理、ETL 流程、API 介面與任務調度邏輯。 4. 搭建並維護資料視覺化與 BI 平臺(如 QuickSight等)。 5. 深度參與資料治理、資料建模、資料品質監控等體系建設。 6. 著重資料蒐集處理流程。 7. 與業務部門合作,提供穩定高效的資料分析支援。 【任職要求】 1) 資管/資工/電機相關大學以上學歷,10 年以上軟體發展經驗,其中 5 年以上後端系統開發經驗。 2) 精通至少一種主流程式設計語言(如 Python、Java、Go 等),並熟悉 SQL 與資料處理框架(如 Spark)。 3) 熟悉 AWS 雲平臺及主流服務(S3、Redshift、Glue、Lambda、Athena 等),具備實際專案執行經驗。 4) 有大型分散式系統或資料平臺建設經驗,具備良好的系統架構能力。 5) 熟悉資料建模、資料分層架構、資料治理理念。 6) 具備 BI 視覺化系統或報表平臺的搭建與運維經驗。 7) 較強的溝通能力、團隊協作精神和自我驅動能力。
應徵
10/02
台北市大同區經歷不拘大學以上
【工作內容】 1.協助客戶安裝與部署 Pentaho 產品,包括 Pentaho Data Integration(PDI)、Pentaho Server 和 Pentaho Report Designer。 2.使用 ETL 工具(Pentaho PDI、Talend、Informatica、Microsoft SSIS 等)進行數據抽取、轉換與載入,確保資料正確性與完整性。 3.熟悉 Python 或 Java 等程式語言,能撰寫 ETL 腳本與自動化流程。 4.設計並維護 Data Model,建立高效、可擴充的數據架構。 5.開發與維護 Data Warehouse,確保數據一致性、完整性與可靠性。 6.熟悉 SQL 與常見資料庫(RDBMS / NoSQL),能分析並解決複雜的資料問題。 7.協助客戶安裝與配置 OpenMetadata,並整合至既有數據管理環境。 8.使用 OpenMetadata 平台建立與維護數據資產目錄,協助定義數據標準、數據政策與分類。 9.整合 OpenMetadata 與其他數據管理工具(ETL、資料庫、BI 工具等)。 10.撰寫專案與技術文件,包括安裝手冊、教育訓練教材與客戶需求文件。 11.參與客戶需求訪談,協助規劃與導入完整的數據平台解決方案。 12.其他主管交辦事項。 【必要條件】 1.具備 SQL 語法與資料結構基礎,理解 Data Flow 並能應用於實務案例。 2.熟悉 ETL 工具操作與數據處理邏輯。 3.至少熟悉一種程式語言(Python / Java),能進行自動化與流程開發。 4.理解 Data Model 設計理論並具備實務經驗。 5.良好的溝通能力,能與客戶合作並釐清需求。 6.具備獨立作業與問題解決能力,能快速學習新技術。 【加分條件】 熟悉 Pentaho PDI 或 OpenMetadata 平台。 具備 Data Warehouse、資料治理、資料湖泊等相關經驗。 有報表系統(如 Pentaho Report Designer、Power BI、Tableau)應用經驗。 瞭解雲端數據平台(如 AWS Redshift、GCP BigQuery、Snowflake)尤佳。 具備教育訓練、技術文件撰寫與客戶導入顧問經驗。 【發展方向】 短期(1–2 年):熟悉 Pentaho / OpenMetadata / DWH 平台導入,能獨立執行專案模組。 中期(2–4 年):成為能夠進行跨系統數據整合與數據治理規劃的顧問。 長期(5 年以上):成長為資料架構師 / 雲端數據平台專家,能帶領團隊規劃企業級數據平台。
應徵
09/29
鴻宇科技服務有限公司電腦軟體服務業
台北市內湖區2年以上高中以上
- 可接受駐點性質工作:需配合派駐至客戶端,參與並執行軟體專案開發任務。 - 工作態度與團隊合作:具備主動學習精神,重視紀律與責任感,樂於與團隊協作,共同達成專案目標。 - 專業背景與經驗: 具備至少兩年以上程式設計師(PG)、系統開發人員(SD)、系統分析師(SA)、專案經理(PM)、資訊管理人員(MIS)、軟體測試人員(QA)或技術客服(TS)等相關職務。具備專案執行能力,擁有相關專業證照者尤佳。 - 工作地點:台北市內湖為面試地點,實際派駐地點依客戶端需求而定。
應徵