104工作快找APP

面試通知不漏接

立即安裝APP

「D02-資料工程師(DE)_旅遊科技部_數據營運組」的相似工作

雄獅資訊科技股份有限公司
共503筆
精選
智璟科技股份有限公司電腦系統整合服務業
台北市南港區2年以上大學
工作內容 1.執行應用系統軟體開發與維護 2.配合系統測試及版本控管 3.研究技術解決方案及撰寫技術文件、測試報告 專案需求 1.客戶:政府機關 2.開發:公司或客戶端進行開發(開發時程,會依專案大小不定) 3.測試:公司或客戶端進行測試 4.上線:客戶端環境,進行測試及程式的修改 5.維護:維護期在公司進行程式的維護 資格 1.二年系統軟體開發以上經驗 2.熟Java程式設計、JavaScript、JQuery、JSP、MVC、前後端分離、Vue 3.熟Java Framework佳:Spring Boot or Spring MVC or Struts2 4.有Java程式設計相關證照者佳
應徵
精選
科爾迪股份有限公司電腦軟體服務業
台北市松山區5年以上大學以上
・協助研發軟體新技術與新工具 ・金融系統開發 ・負責軟體之分析、設計以及程式撰寫 ・進行軟體之測試與修改
應徵
精選
寶醫科技股份有限公司電腦軟體服務業
台北市大同區3年以上大學以上
我們重視每一位同仁,致力打造輕鬆、友善的工作氛圍,鼓勵彼此合作與成長。 如果你具備技術自信、做事細心,並對醫療資訊領域懷抱熱情與企圖心,誠摯歡迎加入我們的行列! 【職 務 內 容】 • 醫療系統設計、開發、建置、上線與維護 • 撰寫相關技術文件 • 參與專案例會並進行進度報告 • UI/UX設計有專人處理 • 沒有加班文化 • 年終獎金 • 專案獎金 • 技術能力(具備二顆★以上即可,星等越高代表您的專業越被重視、越是我們期待的人才) ★ 網頁前端技術 HTML / CSS / JavaScript / jQuery / RWD ★ 微軟前端技術 C# / WPF / XAML ★ 資料庫串接與 API 開發 C# / .NET / API ★ 資料庫應用 MSSQL (能進行資料表設計、查詢撰寫、基本效能優化) ★★★ 資料庫架構設計 MSSQL (須有中大型專案經驗) ※ 若您具備醫療資訊系統相關開發經驗,將是我們極為重視的加分條件! ※ 本公司重視誠信與資訊安全,提供值得信賴的工作環境與制度。 ※ 為通勤便利,有提供機車同仁專用車位。
應徵
11/03
台北市大安區1年以上大學以上
【About Us】 歡迎加入「國泰健康管理」!我們是一個充滿活力、追求創新、以數據和科技驅動健康管理變革的團隊!在這裡,你將與一群熱愛科技、關心健康、充滿創造力的夥伴並肩作戰,共同探索智能健康的無限可能。 我們相信「想要健康不能靠感覺」,而是基於精準數據的科學管理。 我們的使命是:整合數位、數據和 IT 技術,打造個人化的健康管理解決方案,讓人人都能擁有健康自信的人生,實踐『健康就在生活裡,解方就在數據裡』 【We Need You to …】 1.應用服務開發與維護 • 開發與維護數據應用服務(API),確保業務服務穩定運行。 • 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 • 建立與管理 CI/CD Pipeline,提升開發與部署效率。 • 持續監控服務效能,進行問題排查、升級與最佳化。 【About You】 • 熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 • 熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 • 了解容器化技術(Docker、Kubernetes)。 • 了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【Plus】 • 具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 • 具備 Terraform 或其他 IaC 工具經驗。 • 具備 DevOps / Cloud Engineer 相關工作經驗。 • 具備網路/資訊安全管理經驗。 • 具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/30
台北市大同區經歷不拘大學以上
【工作內容】 1.協助客戶安裝與部署 Pentaho 產品,包括 Pentaho Data Integration(PDI)、Pentaho Server 和 Pentaho Report Designer。 2.使用 ETL 工具(Pentaho PDI、Talend、Informatica、Microsoft SSIS 等)進行數據抽取、轉換與載入,確保資料正確性與完整性。 3.熟悉 Python 或 Java 等程式語言,能撰寫 ETL 腳本與自動化流程。 4.設計並維護 Data Model,建立高效、可擴充的數據架構。 5.開發與維護 Data Warehouse,確保數據一致性、完整性與可靠性。 6.熟悉 SQL 與常見資料庫(RDBMS / NoSQL),能分析並解決複雜的資料問題。 7.協助客戶安裝與配置 OpenMetadata,並整合至既有數據管理環境。 8.使用 OpenMetadata 平台建立與維護數據資產目錄,協助定義數據標準、數據政策與分類。 9.整合 OpenMetadata 與其他數據管理工具(ETL、資料庫、BI 工具等)。 10.撰寫專案與技術文件,包括安裝手冊、教育訓練教材與客戶需求文件。 11.參與客戶需求訪談,協助規劃與導入完整的數據平台解決方案。 12.其他主管交辦事項。 【必要條件】 1.具備 SQL 語法與資料結構基礎,理解 Data Flow 並能應用於實務案例。 2.熟悉 ETL 工具操作與數據處理邏輯。 3.至少熟悉一種程式語言(Python / Java),能進行自動化與流程開發。 4.理解 Data Model 設計理論並具備實務經驗。 5.良好的溝通能力,能與客戶合作並釐清需求。 6.具備獨立作業與問題解決能力,能快速學習新技術。 【加分條件】 熟悉 Pentaho PDI 或 OpenMetadata 平台。 具備 Data Warehouse、資料治理、資料湖泊等相關經驗。 有報表系統(如 Pentaho Report Designer、Power BI、Tableau)應用經驗。 瞭解雲端數據平台(如 AWS Redshift、GCP BigQuery、Snowflake)尤佳。 具備教育訓練、技術文件撰寫與客戶導入顧問經驗。 【發展方向】 短期(1–2 年):熟悉 Pentaho / OpenMetadata / DWH 平台導入,能獨立執行專案模組。 中期(2–4 年):成為能夠進行跨系統數據整合與數據治理規劃的顧問。 長期(5 年以上):成長為資料架構師 / 雲端數據平台專家,能帶領團隊規劃企業級數據平台。
應徵
10/29
台北市信義區3年以上大學
您是否渴望在金融科技的前沿,以前瞻數據、AI 與 LLM 技術驅動創新,塑造未來金融服務? 科技創研中心金融科技處,正積極尋找充滿熱忱、具備專業技能的 數據暨AI工程師 加入我們的創新團隊。您將負責金融科技領域的企業級數據平台、AI 平台及 LLM 相關基礎設施的開發、管理與優化,尤其著重於 Data Lakehouse 架構的實踐與 Denodo 虛擬化技術的應用,並參與大型語言模型 (LLM) 在金融領域的應用開發與部署,確保數據的安全性、高效傳輸與穩定運作,為金融 AI/LLM 應用與策略決策提供堅實的技術後盾,助力提升金融服務的競爭力與創新能力。如果您對數據工程、AI/LLM 工程在金融領域的應用充滿熱情,並熟悉 Data Lakehouse、Denodo 等先進技術,且對 LLM 的發展與應用有深入了解,渴望在充滿挑戰與成長的環境中發揮所長,誠摯邀請您加入我們! 【工作職責】 •Data Lakehouse 平台開發與管理: 負責金融科技領域基於 Data Lakehouse 架構的數據平台設計、開發、部署、維護與優化,整合結構化與非結構化數據,提供彈性高效的數據存儲與分析能力,以支持 LLM 相關應用所需的大規模數據。 •Denodo 虛擬化平台管理與開發實作: 負責 Denodo 虛擬化平台的設計與管理,實現多個異質數據源的邏輯整合,提供統一的數據存取介面,簡化數據獲取流程,以支援 LLM 應用所需的多樣化數據來源。 •數據管道開發: 設計並實作高效能的 ETL/ELT 流程,處理多元金融數據來源 (例如:交易數據、市場數據、客戶數據、文本數據等),確保數據的準確性、完整性與即時性,並能有效整合至 Data Lakehouse 或透過 Denodo 進行虛擬化,以供各單位進行分析與應用。 •數據整合與清理: 負責數據的整合、轉換、清理、標準化與特徵工程,提高數據品質,為後續的數據分析、風險模型、 AI 模型與 LLM 的訓練及微調 奠定良好基礎,並考量 Data Lakehouse 的數據治理與管理。 •AI/LLM 平台管理: 負責企業 AI 平台、LLM 相關基礎設施 (例如:GPU 伺服器、模型儲存、API 部署等) 及 MLOps 流程的維護、管理與優化,確保企業內 AI/LLM 模型開發、訓練、微調與安全部署流程的順暢與高效,符合金融保險行業的合規要求,並能有效利用 Data Lakehouse 中的數據。 •LLM 應用開發與部署: 參與金融領域大型語言模型 (LLM) 的應用開發、測試與部署,例如:AI Agent、文本分析、資訊抽取、內容生成等。 •數據監控與效能調校: 開發與運營數據管道、數據庫、Data Lakehouse、AI 平台及 LLM 應用 的監測機制,進行效能分析與調校,確保系統的穩定運行與高效能,並符合系統穩定性的嚴格要求。 •跨部門協作: 與AI 科學家、IT 部門、Biz部門 (例如:通路、核保、商品等) 等緊密合作,深入了解企業業務需求與痛點,提供穩健且高效的數據與 AI/LLM 平台解決方案,並能利用 Data Lakehouse 和 Denodo 提供的能力。
應徵
08/13
台北市南港區經歷不拘大學
工作內容: 開發與維護自動化數據處理流程(ex: Pipeline、Airflow) 建置並優化各式網路爬蟲(ex: Requests、Playwright、Scrapy ) 使用 Django 開發後端服務與 API,串接資料庫與前端系統 操作並優化資料庫(MariaDB、Redis),確保效能與穩定性 在 AWS(EC2、S3、RDS 等)環境中部署、監控與維運服務 協作AI應用模型 必備條件: 熟悉 Python,能獨立開發爬蟲、資料處理與 API 熟悉 Django 後端框架與 RESTful API 開發 熟悉 SQL(MariaDB)與快取系統(Redis) 具備自動化排程與數據管道開發經驗 具備 AWS 雲端平台使用經驗(EC2、S3、RDS 等) 良好的溝通能力與跨部門協作經驗 加分條件: 熟悉 Docker 具備前端基礎(HTML / CSS / JavaScript)可進行簡單資料視覺化 具備 機器學習或深度學習專案經驗
應徵
10/29
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
11/03
極風雲創股份有限公司網際網路相關業
台北市信義區3年以上專科
工作內容 極風雲創致力於拓展 AI 驅動的應用資安智能解決方案與服務,我們正在尋找具備創新思維與跨領域整合能力的資料工程師,一起打造具影響力的產品,推動企業數位轉型與智慧防禦。 【主要職責】 負責AI訓練前置資料整理與轉換,資安資料、資安產品日誌資料、法規資料等等,將相關資料進行數據分類與建庫,以及優化AI抽取的資料庫語法優化與效能提升。 【職務需求】 • 具備 高度企圖心、責任感與自我驅動力,勇於挑戰並樂於學習新事物。 • 優秀的 溝通與協調能力,能快速理解問題並提出具體解決方案。 • 具備 AI / 資料庫建置與管理,相關經驗,熟悉RAG向量資料庫建置,及MYSQL ELK 等等使用相關經驗 • 對 AI 應用、雲端平台或資安領域 有濃厚興趣或相關經驗。 • 需要與資安工程師、法務等等,將文件與資料進行向量資料庫建置與管理,以及與前後端工程師溝通討論串接API與測試RAG效果,並與AI訓練工程師,提供AI訓練品質與精準度。 我們提供 • 參與 AI + 資安 相關產品研發,影響未來數位防禦的機會。 • 彈性且具挑戰性的工作環境,鼓勵創新與跨域合作。 • 完整的職涯發展與學習資源,讓你在 AI 與雲端資安領域快速成長。 【 職位條件】 • 電腦科學、資訊工程、資訊管理或相關科系學士/碩士學位 • 具備 AI或資料庫相關產品開發相關背景者佳 • 具備問題解決、創新能力,推動團隊達成目標
應徵
10/27
域動行銷股份有限公司廣告行銷公關業
台北市松山區1年以上大學以上
公司介紹: 域動行銷是中華電信集團轉投資公司之一,成立於2009年,致力於提供創新的數位廣告解決方案,當中包含廣告系統DSP、SSP、CDP、混血數據及廣告聯播網等,我們通過創新的行銷技術解決方案來推動廣告和數據分析的發展,同時專注於行銷科技領域,提供前瞻性的觀點,引領數據行銷的未來。 組織介紹: 域動Data Team是由一群對『數據分析』及『AI應用』具有研究及開發熱誠的成員所組成。在這裡你可以接觸到大量即時的使用者行為資料,並將資料科學模型應用於: 『網路廣告投放優化』 『網路用戶辨識』 『消費者行為分析』 我們更致力於尋找優化方案,改善產品體驗設計及為商業決策提供數據支持,提升效率和價值。我們鼓勵組員多方嘗試、思考、展現天馬行空的創意,且能清楚闡述想法,付諸實踐。 【Job Description】 • 須熟悉python, 尤其是對pyspark操作有經驗 • 具備優化資料流和處理效率的專業知識,以及處理每日一億筆記錄的資料吞吐量的經驗 • AWS、GCP 等雲端平台的實務經驗 • 熟練開發強大的data pipeline,包括資料收集和 ETL(擷取、轉換、載入)流程 • 具備設計和實施資料平台各種元件的經驗,包括資料攝取、儲存、資料倉儲、資料編排 • 持續整合和持續部署(CI/CD)流程的經驗 【Qualifications】 1. 熟悉 ML 相關知識 2. 熟悉Python程式語言,以pyspark模組為主 3. 熟悉Linux 系統操作 4. 熟悉資料庫程式語言 SQL 【Preferred Qualifications】 1.具備機器學習平台經驗,例如 KubeFlow、MLflow 或 Vertex AI 2.具備API設計與實作經驗 3.具備使用 AWS Kinesis、Spark Streaming 等串流工具的經驗 4. 具有數位廣告相關經驗 6. 具有分散式運算的相關知識,如 Spark、Hadoop、Hive 7. 有使用過GCP, AWS 等雲端服務經驗佳 【加分項目】 熟悉scale, JAVA 熟悉資料湖相關技術 統計學專長
應徵
10/28
台北市大安區1年以上專科以上
【工作內容】 1.應用服務開發與維護 開發與維護數據應用服務(API),確保業務服務穩定運行。 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 建立與管理 CI/CD Pipeline,提升開發與部署效率。 持續監控服務效能,進行問題排查、升級與最佳化。 【技能需求】 1.熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 2.熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 3.了解容器化技術(Docker、Kubernetes)。 4.了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【加分項目】 1.具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 2.具備 Terraform 或其他 IaC 工具經驗。 3.具備 DevOps / Cloud Engineer 相關工作經驗。 4.具備網路/資訊安全管理經驗。 5.具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
11/04
不晚科技有限公司電腦軟體服務業
台北市內湖區1年以上專科
1.熟練數據分析工具,能進行數據清理、分析和建模,分析市場營銷活動的效果,提供報告和改進建議。 2.從多個渠道收集客戶數據,確保數據品質,製作可視化報表,清晰呈現數據洞察。 3.定期分析遊戲或平台的關鍵績效指標,並找出影響營收的主要因素 4.利用統計假設檢定,檢測產品風險,並預防發生風險 5.主管臨時交辦任務。 必備條件: 1.學歷:統計、數學、理工、資訊相關學系畢業,且已取得學士(含)以上學位(畢業)證書。 2.程式語言:熟悉Python,需有3年以上使用經驗 3.資料庫管理及查詢:有資料庫使用經驗,如MSSQL,MySQL,PostgreSQL,或至少自學完成相關線上課程 4.具備開放學習態度和跨團隊的合作精神
應徵
11/03
凌越生醫股份有限公司生化科技研發業
台北市內湖區經歷不拘專科
1. 負責網站(官網、電商網站)編碼,外鏈建置工作,能夠快速為網站獲取高權重鏈接;提高網站整體流量。 2. 瞭解SEO原理和實施方法,如關鍵字優化、標籤優化、標題優化、關鍵字排名優化等。 3. 監測分析公司與競業網站流量,排名收錄等數據,並優化網站整體排名。 4. Google Ads平台操作:設定廣告活動、彙整廣告數據、撰寫報表分析、優化文案的策略。 5. 分析與追蹤 Facebook、Instagram、LINE、Google(GA4、Ads、Search Console)等數位媒體平台數據,評估貼文互動、廣告投放、觸及率、點擊率與轉換率,並提出優化與廣告預算調整建議。 6. 利用 Google Analytics 等工具追蹤官網訪客行為、跳出率、轉換路徑與銷售績效,分析網站活動成效與回購率。 7.CRM系統維運(活動短網址、串接商機、成交率分析等)
應徵
10/28
咖米股份有限公司其它軟體及網路相關業
台北市中正區5年以上專科以上
【擴編】資深數據分析師|Senior Data Analyst Kamee咖米是結合科技與健康的品牌。 希望藉由數據替每個人打造專屬於自己的個人化健康方案,帶給世界更美好的生活! 主要提供服務包含【客製化保健品訂閱服務】及【智能健康評估系統】 ★ 咖米獲選經濟部FINDIT早期投資系列活動企業 ★ Google台灣區Project Hatcher的合作企業 ★ 鴻海集團旗下康聯生醫的戰略合作夥伴 ★ 成為北美矽谷加速器暨創投基金SparkLabs Taiwan Portfolio 我們創造開放、共享的企業文化,重視成員身心內外成長, 相信只有擁有共同目標和願景的團隊,才能一起共創未來! ▼ 咖米官網: https://kameelife.com ▼ 臺北國際會議中心產品發布會: https://youtube.com/watch?v=Qw_dZzjFFEE&feature=share7 ▼ EE TIMES國際媒體專訪: https://www.linkedin.com/feed/update/urn:li:activity:7080444553702342656 —— 我們需要 —— ■【擴編】資深數據分析師|Senior Data Analyst Kamee 正在從成長型新創邁向數據驅動決策階段, 我們需要一位能讓數據成為商業引擎的夥伴。 你將整合公司數據資料,建立自動化報表與成長模型, 讓數據不只是報表,而是驅動品牌成長的動力。 —— 你的目標 —— ■整合行銷、營運、CRM、訂閱與網站數據資料,打造能驅動成長的數據基礎。 ■分析行銷、營運與顧客行為,洞察 CAC、ROAS、LTV、留存等核心指標背後的成長關鍵點。 ■與行銷、產品、營運等部門合作,發掘成長機會並優化用戶體驗。 ■建立資料驅動文化,推動公司長期決策與預測模型的發展。 —— 期待的人 —— ■對數據有好奇心,會思考「數據想告訴我什麼真相」。 ■動手能力強、學得快,能自行接資料、建報表、跑分析,樂於優化流程。 ■具備商業敏銳度,能從數字理解營運邏輯與用戶行為。 ■擅長跨部門合作,能用數據推動行銷、工程、客服、財務更有效率地前進。 ■結果導向,重視實際成長與影響力,而非僅追求報表好看。 我們在尋找能從數據中發掘商業洞察,並以此幫助團隊推動決策的夥伴,不一定要有完整系統背景,只要具備強邏輯與實作力。 —— 經歷技能 —— 【經歷】 ■5年以上數據分析或相關經驗。 ■熟悉行銷或電商數據分析(懂 CAC、LTV、ROAS、留存率等概念)。 ■具跨部門溝通經驗,能用簡單語言說清複雜數據。 【技能】 ■熟悉 SQL、Python(或 R),能獨立清理與分析資料。 ■熟悉 GA4、Meta Ads、Google Ads、CRM 等數據串接與分析。 ■能操作 BI 工具(如 Looker Studio、Power BI、Tableau)建立互動式報表。 【加分條件】 ■熟悉 BigQuery、Redshift、Snowflake 或 API 串接整合 ■具備自動化報表或儀表板建置經驗(如 GA4、Looker Studio、Power BI) ■能運用 AI 工具(如 GPT、Gemini)輔助資料分析與模型優化 —— 主要職責 —— ■優化公司既有數據架構與自動化報表系統(GA4、CRM、投放平台、ERP、內部數據儀表板)。 ■協助行銷與產品團隊發現成長機會,分析行銷投放、顧客行為與營運成效,找出轉換與留存的驅動因素。 ■設計 CAC、ROAS、LTV、留存率等 KPI 模型與可追蹤機制。 ■跨部門協作,提供行銷與營運團隊所需的數據洞察,協助制定成長策略。 ■持續優化資料整合流程,建立公司未來資料科學基礎。 Report to Marketing head 在 Kamee,你的分析結果不只是一份報表, 而是會直接影響產品、行銷與營運策略的「決策引擎」。 如果你想親手打造一家健康科技品牌的數據策略,我們非常期待你加入! —— 薪資待遇 —— $70,000~$110,000/月 /月起(視能力與經驗彈性調整) 此職缺不接受遠端工作
應徵
10/30
果友科技有限公司電腦軟體服務業
台北市大安區1年以上學歷不拘
我們正在尋找一位具備後端思維的數據工程師,與企業客戶的產品與分析團隊合作,打造高品質的數據供應與自動化環境。 你的主要任務是確保數據能穩定流動、被正確處理與自動化運作,成為支撐企業決策與AI應用的堅實基礎。 【工作內容】 1. 設計、開發與維護數據流程(Data Pipeline),打造穩定且高效的數據基礎架構 2. 使用 Python(pandas、numpy 等)進行數據清理、轉換與處理 3. 建立與維護 ETL 流程,確保資料品質、完整性與可追溯性 4. 建置與串接 API 與外部資料源,整合成統一的資料服務 5. 將數據處理流程自動化,並協助部署至雲端或容器化環境(如 Docker) 6. 需「派駐」至健康管理企業現場,協同客戶團隊實作與優化數據架構 【必備技能】 - Python:具備後端開發與數據處理能力,熟悉 pandas、numpy 等數據處理套件 - API 建置與整合:具備 FastAPI 建置與類似框架設計與串接經驗 - 資料流程思維:能理解資料從來源到應用的完整流向,具備基礎 ETL 概念 【加分技能】 1. 熟悉 Docker 或其他容器化技術,能協助部署與環境管理 2. 熟悉雲端平台(AWS、GCP、Azure等),具雲端自動化部署經驗 3. 擁有資訊工程、資訊管理、數學、統計相關背景者尤佳 【我們的願景】 加入果友科技,與我們一起用數據創造影響力。 這裡是讓你深入理解企業實際運作、與資料應用團隊並肩打造自動化數據服務的最佳舞台。 有興趣歡迎投遞履歷或直接聯繫我們,期待你的加入!
應徵
10/31
台北市松山區1年以上大學
COMMEET (https://commeet.co) 擴大徵才,歡迎有熱情之新夥伴加入我們的行列 [工作內容] 1 整理、標記數據,以確保數據的準確性與可靠性 2 建立/維護/優化資料處理流程與架構(data pipeline) 3 跟相關的stakeholder合作,解決並優化他們的數據需求 4 其它主管交辦事項。 [必要條件] • 從業人員恪守客戶個資保護敏感度及尊重客戶資料隱密性 • 熟悉 ML/DL • 熟悉 python 語言與相關資料庫 (csv、postgres、redis、excel) • 熟悉圖表可視化(Visualization),以及圖表分析能力 • 熟悉 git 版本控制 • 如線上初試通過者,將安排線下複試,複試安排 leetcode [加分項目] • 具有 OCR 處理數據經驗 • 有kaggle 等競賽平台經驗 • 有新創公司經驗 • 有FinTech 或 ERP/CRM 經驗 [人格特質] • 獨立作業的能力 • 細心負責任 • 勇於溝通,樂於表達自己的想法 • 喜歡主動學習新技術,願意與團隊研究及分享技術新知
應徵
11/03
HUA AO_香港商創金科技有限公司其它軟體及網路相關業
台北市大同區2年以上專科
【工作內容】 1. 熟練掌握 SQL、Python,瞭解數據建模理論 2. 熟悉數據倉庫工具(如 Snowflake、Redshift、BigQuery、Databricks 等) 3. 使用 BI 可視化工具(如 Power BI、Tableau、Looker) 4. 有支付相關業務(如交易數據、支付成本、渠道分潤)分析經驗 5. 具 ETL 構建經驗,熟悉 Airflow、DBT 等數據編排工具經驗 【加分條件】 1. 有參與資料平台、BI 系統或數據倉儲專案的經驗,能獨立完成中小型任務 2. 熟悉 Git、CI/CD、Docker 等基礎 DevOps 工具者佳 3.參與團隊數據治理與標準制定經驗者尤佳 4. 具備良好的跨部門溝通與協作能力,能協助推動任務執行與進度管理
應徵
11/03
台北市內湖區2年以上大學以上
【工作內容】 1. 資料管道建置與維運: 設計、開發和維護高效、可擴展的資料管道,確保資料從各個來源可靠地流向資料倉儲、數據湖和資料分析平台。 2. 資料模型與整合: 熟悉資料倉儲和數據湖概念,根據業務需求進行資料建模、資料處理和資料整合,確保資料的準確性和一致性。 3. ETL/ELT 開發與優化: 熟練使用資料處理框架(如 Informatica、Airflow 等)進行 ETL/ELT 流程的設計、開發和優化,提升資料處理效率。 4. 雲端資料工程: 具備 Azure 或 AWS 雲端平台實務經驗,能夠在雲端環境中部署和管理資料工程解決方案,運用雲端服務提升資料處理能力。 5. 異質資料處理: 能夠處理各種異質資料來源,進行資料清理、轉換和整合,解決資料格式和結構不一致的問題。 6. 跨團隊協作: 與資料分析師和業務團隊緊密合作,了解資料需求,提供資料支援,共同推動資料驅動的決策。 7. CI/CD 導入與實踐: 熟悉 CI/CD 流程,能夠設計和實施自動化部署和測試流程,確保資料管道的穩定性和可靠性,加速開發迭代。 8. 技術研究與創新: 持續研究和評估新的資料工程技術和工具,提出改進建議,並將其應用於實際工作中,保持技術領先。
應徵
11/04
新北市汐止區1年以上大學
1. 內容開發與落地應用專案: 以數據驅動為核心的應用專案,包含專案架構規劃、進度追蹤、跨部門協作、落地驗證、進度追蹤回報、教育訓練、專案維運與持續優化等。 2. 內容經營分析與執行: 對數位內容進行全面、系統化的評估和管理,提升內容效益與影響力,並挖掘出更具價值的數據洞察。包含新聞議題分析、多媒體內容(如影音、Podcast)的深入數據分析與執行,並執行績效追蹤檢核、專案進度回報、跨部門協作(包括教育訓練和會議)等。 3. 創新型數據應用開發: 利用創新的數據分析技術(如Generative AI、Machine Learning)優化工作流程,促進創新應用開發,提升效率和數據價值,以實現數據驅動的決策與產品改進。 4. 主管交辦之新專案、行政事項或維運事項。 【必要條件】 1. 熟GCP環境,掌握 SQL、Python、AI等執行處理能力。 2. 熟Google Analytic 4、Looker studio、Excel(函數/樞紐/VBA)、Power Point。 【加分條件】 1. Google Data Analytics 認證。 2. Google Analytic 4 認證 (有效期內)。
應徵
10/30
叡揚資訊股份有限公司電腦軟體服務業
台北市中山區經歷不拘專科以上
我們正在尋找一位對資料有熱情,並具備資料流處理能力的資料工程師,協助我們打造高效、可擴展的資料處理與資料治理平台。主要工作內容包括: 1. 進行資料治理平台之品質檢核規則開發及維護 2. 進行資料品質規則推薦功能之發想及開發 3. 與後端、DevOps 等團隊合作,溝通協調資料處理面與前台介面整合之事項 4. 撰寫與維護技術文件與數據流程說明
應徵
11/03
晨晰統計顧問有限公司工商顧問服務業
新北市板橋區經歷不拘碩士
主要工作內容是資料擷取與整理、統計分析,圖表整理以及投稿協助,主要資料類型如下: 1. 衛生福利資料科學中心 2. 醫院電子病歷資料庫 3. 臨床收案資料 (生物醫學統計) 4. 藥廠的臨床試驗 (生物醫學統計)
應徵
10/29
果友科技有限公司電腦軟體服務業
台北市大安區1年以上學歷不拘
我們正在尋找一位具備後端架構思維的「數據工程師」,能與企業客戶的數據分析、工程團隊協作,打造穩定且可擴展的數據處理流程。 這份職缺主要任務是設計並維運高可靠性的 ETL 與 Airflow 數據流程,確保資料能自動化運行、正確轉換,成為企業決策與 AI 應用的核心動能。 【工作內容】 1. 規劃、開發與維運企業級 ETL 數據流程,確保資料高效流轉與品質穩定 2. 使用 Apache Airflow 建立自動化排程與監控機制,確保任務準時執行與可追蹤性 3. 使用 Python(pandas、numpy 等)進行資料清理、轉換與整併,支援分析與應用服務 4. 負責 MongoDB 的資料設計、查詢效能優化與維運管理 5. 需「派駐」至健康管理企業現場,協助數據流程導入與落地 【必備技能】 - 精通 Python 程式設計與數據處理(pandas、numpy) - 具備 ETL / Airflow 實務經驗(包含 DAG 設計、排程與監控) - 具良好資料處理邏輯與數據品質控管概念 - 熟悉 Git 版本控制與 CI/CD 自動化部署流程(ex: GitHub Actions 或 GitLab CI) 【加分技能】 1. MongoDB 架構設計與操作 2.. 具備資料倉儲或數據湖架構經驗 3. 資訊工程、資訊管理、數學、統計等相關背景尤佳 【我們的願景】 加入果友科技,與我們一起打造穩健的數據基礎設施,讓資料在企業間流動得更順暢,持續以數據創造影響力 有興趣者歡迎投遞履歷或直接聯繫我們,期待你的加入!
應徵
10/15
台北市南港區7年以上大學以上
【崗位職責】 1) 負責公司內部資料平臺的規劃、開發與持續優化,保障資料的完整性、可用性與安全性。 2) 基於 AWS 雲平臺及主流服務(如 EC2、S3、Redshift、Glue、Lambda、Athena 等)設計並實現高可用、高性能的資料處理與分析系統。 3. 設計並實施可擴展的後端服務,支援資料流程處理、ETL 流程、API 介面與任務調度邏輯。 4. 搭建並維護資料視覺化與 BI 平臺(如 QuickSight等)。 5. 深度參與資料治理、資料建模、資料品質監控等體系建設。 6. 著重資料蒐集處理流程。 7. 與業務部門合作,提供穩定高效的資料分析支援。 【任職要求】 1) 資管/資工/電機相關大學以上學歷,10 年以上軟體發展經驗,其中 5 年以上後端系統開發經驗。 2) 精通至少一種主流程式設計語言(如 Python、Java、Go 等),並熟悉 SQL 與資料處理框架(如 Spark)。 3) 熟悉 AWS 雲平臺及主流服務(S3、Redshift、Glue、Lambda、Athena 等),具備實際專案執行經驗。 4) 有大型分散式系統或資料平臺建設經驗,具備良好的系統架構能力。 5) 熟悉資料建模、資料分層架構、資料治理理念。 6) 具備 BI 視覺化系統或報表平臺的搭建與運維經驗。 7) 較強的溝通能力、團隊協作精神和自我驅動能力。
應徵