104工作快找APP

面試通知不漏接

立即安裝APP

「資料工程師 Data Engineer」的相似工作

果實夥伴股份有限公司
共501筆
精選
台北市大安區經歷不拘學歷不拘
1. Collaborate with cross-functional teams to design, develop, and apply Generative AI (GenAI) models, especially large language models (LLMs). 2. Develop and implement insurance products and services, and optimize the efficiency, scalability, and performance of GenAI models. 3. Learn and share the latest AI and Machine Learning (ML) development. 4. Adjust and fine-tune GenAI models, and write user manuals detailing the development process and user instructions. 5. Develop and maintain the model training and deployment process to ensure optimal system performance. 1. 與跨功能團隊合作,設計、開發和實施生成式AI模型,尤其是大型語言模型(LLMs)。 2. 開發和實施保險產品和服務,優化模型的效率、可擴展性和性能。 3. 吸收並分享AI和機器學習技術的最新發展。 4. 調整和微調生成式AI模型,撰寫開發過程和使用說明文件。 5. 開發和維護模型訓練和部署流程,確保系統最佳運作。
應徵
10/29
台北市松山區2年以上專科以上
我們正在尋找一位熱情且富有才華的資料工程師,加入我們的團隊,協助解決廣告投遞的資料內容。在這裡有大量的數據供你發揮所長,將學過的知識及方法應用到實務的工作上。 我們希望你具備以下三大特質: 對資料工程領域有強烈興趣和熱情 。 重視團隊合作,具備良好的溝通能力 。 具有自我學習能力,能夠快速適應新技術。 職責: 資料取得 - 串接內外部廣告資料,必要時設計和構建資料倉儲系統。 資料清洗 - 進行資料格式的清理、轉換和處理,確保資料品質。 資料分析 - 運用統計和機器學習技術進行深入分析,提供有價值的洞察。 資料視覺化 - 若有需要,根據分析的數據提供統計圖表或報告。 程序開發 - 根據業務需求設計、開發和優化資料處理流程和模型。 系統維護:持續監控、維護和優化現有的資料系統和流程。 具備 2 年以上相關領域的開發經驗 ◆ 精通 Python 程式設計 ◆ 熟悉 Git 版本控制 ◆ 具備以下至少一種資料庫使用經驗:SQL、NoSQL、Redis、BigQuery ◆ 基本 Linux 操作概念、Shell script ◆ 學習新工具的能力、樂於學習的精神。 ◆ 重視程式可讀性、效能、安全性、可靠度。
應徵
10/30
台北市大同區經歷不拘大學以上
【工作內容】 1.協助客戶安裝與部署 Pentaho 產品,包括 Pentaho Data Integration(PDI)、Pentaho Server 和 Pentaho Report Designer。 2.使用 ETL 工具(Pentaho PDI、Talend、Informatica、Microsoft SSIS 等)進行數據抽取、轉換與載入,確保資料正確性與完整性。 3.熟悉 Python 或 Java 等程式語言,能撰寫 ETL 腳本與自動化流程。 4.設計並維護 Data Model,建立高效、可擴充的數據架構。 5.開發與維護 Data Warehouse,確保數據一致性、完整性與可靠性。 6.熟悉 SQL 與常見資料庫(RDBMS / NoSQL),能分析並解決複雜的資料問題。 7.協助客戶安裝與配置 OpenMetadata,並整合至既有數據管理環境。 8.使用 OpenMetadata 平台建立與維護數據資產目錄,協助定義數據標準、數據政策與分類。 9.整合 OpenMetadata 與其他數據管理工具(ETL、資料庫、BI 工具等)。 10.撰寫專案與技術文件,包括安裝手冊、教育訓練教材與客戶需求文件。 11.參與客戶需求訪談,協助規劃與導入完整的數據平台解決方案。 12.其他主管交辦事項。 【必要條件】 1.具備 SQL 語法與資料結構基礎,理解 Data Flow 並能應用於實務案例。 2.熟悉 ETL 工具操作與數據處理邏輯。 3.至少熟悉一種程式語言(Python / Java),能進行自動化與流程開發。 4.理解 Data Model 設計理論並具備實務經驗。 5.良好的溝通能力,能與客戶合作並釐清需求。 6.具備獨立作業與問題解決能力,能快速學習新技術。 【加分條件】 熟悉 Pentaho PDI 或 OpenMetadata 平台。 具備 Data Warehouse、資料治理、資料湖泊等相關經驗。 有報表系統(如 Pentaho Report Designer、Power BI、Tableau)應用經驗。 瞭解雲端數據平台(如 AWS Redshift、GCP BigQuery、Snowflake)尤佳。 具備教育訓練、技術文件撰寫與客戶導入顧問經驗。 【發展方向】 短期(1–2 年):熟悉 Pentaho / OpenMetadata / DWH 平台導入,能獨立執行專案模組。 中期(2–4 年):成為能夠進行跨系統數據整合與數據治理規劃的顧問。 長期(5 年以上):成長為資料架構師 / 雲端數據平台專家,能帶領團隊規劃企業級數據平台。
應徵
10/30
恆昌科技有限公司電腦軟體服務業
台中市西屯區2年以上專科
工作內容: 1.ETL流程設計和實施數據提取、轉換和加載流程,從體育數據源(賽事結果、玩家行為等)獲取數據,處理後加載至數據倉庫。 2.建立數據質量控制機制,確保數據的準確性、完整性和一致性,支持平台數據驅動決策。 3.整合賽事數據、用戶行為數據和交易等營運數據,建立統一數據源,支持報表生成和數據圖像化並進行數據分析找出潛在優化的機會。 4.監控和優化ETL流程性能,確保實時數據處理效率,支持即時分析和報告需求。 5.設計符合監管要求的數據處理流程和制度,支持風險管理和安全審計需求。 職務條件: 1.精通ETL工具(如Apache NiFi、Talend等)與SQL數據庫(MySQL、PostgreSQL),具備數據倉庫設計經驗 2.熟悉Python/Java/Scala等編程語言,能夠開發數據處理腳本和自動化流程 3.具備數據質量管理和數據治理經驗,熟悉批處理和實時數據處理技術 4.了解Airflow、Kafka、Spark等大數據工具及雲服務平台數據服務,對體育數據特性有基本認識 5.參與前瞻技術研究,確保公司數據技術維持競爭力
應徵
10/27
域動行銷股份有限公司廣告行銷公關業
台北市松山區1年以上大學以上
公司介紹: 域動行銷是中華電信集團轉投資公司之一,成立於2009年,致力於提供創新的數位廣告解決方案,當中包含廣告系統DSP、SSP、CDP、混血數據及廣告聯播網等,我們通過創新的行銷技術解決方案來推動廣告和數據分析的發展,同時專注於行銷科技領域,提供前瞻性的觀點,引領數據行銷的未來。 組織介紹: 域動Data Team是由一群對『數據分析』及『AI應用』具有研究及開發熱誠的成員所組成。在這裡你可以接觸到大量即時的使用者行為資料,並將資料科學模型應用於: 『網路廣告投放優化』 『網路用戶辨識』 『消費者行為分析』 我們更致力於尋找優化方案,改善產品體驗設計及為商業決策提供數據支持,提升效率和價值。我們鼓勵組員多方嘗試、思考、展現天馬行空的創意,且能清楚闡述想法,付諸實踐。 【Job Description】 • 須熟悉python, 尤其是對pyspark操作有經驗 • 具備優化資料流和處理效率的專業知識,以及處理每日一億筆記錄的資料吞吐量的經驗 • AWS、GCP 等雲端平台的實務經驗 • 熟練開發強大的data pipeline,包括資料收集和 ETL(擷取、轉換、載入)流程 • 具備設計和實施資料平台各種元件的經驗,包括資料攝取、儲存、資料倉儲、資料編排 • 持續整合和持續部署(CI/CD)流程的經驗 【Qualifications】 1. 熟悉 ML 相關知識 2. 熟悉Python程式語言,以pyspark模組為主 3. 熟悉Linux 系統操作 4. 熟悉資料庫程式語言 SQL 【Preferred Qualifications】 1.具備機器學習平台經驗,例如 KubeFlow、MLflow 或 Vertex AI 2.具備API設計與實作經驗 3.具備使用 AWS Kinesis、Spark Streaming 等串流工具的經驗 4. 具有數位廣告相關經驗 6. 具有分散式運算的相關知識,如 Spark、Hadoop、Hive 7. 有使用過GCP, AWS 等雲端服務經驗佳 【加分項目】 熟悉scale, JAVA 熟悉資料湖相關技術 統計學專長
應徵
10/27
HUA AO_香港商創金科技有限公司其它軟體及網路相關業
台北市大同區2年以上專科
【工作內容】 1. 熟練掌握 SQL、Python,瞭解數據建模理論 2. 熟悉數據倉庫工具(如 Snowflake、Redshift、BigQuery、Databricks 等) 3. 使用 BI 可視化工具(如 Power BI、Tableau、Looker) 4. 有支付相關業務(如交易數據、支付成本、渠道分潤)分析經驗 5. 具 ETL 構建經驗,熟悉 Airflow、DBT 等數據編排工具經驗 【加分條件】 有參與資料平台、BI 系統或數據倉儲專案的經驗,能獨立完成中小型任務 熟悉 Git、CI/CD、Docker 等基礎 DevOps 工具者佳 參與團隊數據治理與標準制定經驗者尤佳 具備良好的跨部門溝通與協作能力,能協助推動任務執行與進度管理
應徵
10/29
台北市信義區3年以上大學
您是否渴望在金融科技的前沿,以前瞻數據、AI 與 LLM 技術驅動創新,塑造未來金融服務? 科技創研中心金融科技處,正積極尋找充滿熱忱、具備專業技能的 數據暨AI工程師 加入我們的創新團隊。您將負責金融科技領域的企業級數據平台、AI 平台及 LLM 相關基礎設施的開發、管理與優化,尤其著重於 Data Lakehouse 架構的實踐與 Denodo 虛擬化技術的應用,並參與大型語言模型 (LLM) 在金融領域的應用開發與部署,確保數據的安全性、高效傳輸與穩定運作,為金融 AI/LLM 應用與策略決策提供堅實的技術後盾,助力提升金融服務的競爭力與創新能力。如果您對數據工程、AI/LLM 工程在金融領域的應用充滿熱情,並熟悉 Data Lakehouse、Denodo 等先進技術,且對 LLM 的發展與應用有深入了解,渴望在充滿挑戰與成長的環境中發揮所長,誠摯邀請您加入我們! 【工作職責】 •Data Lakehouse 平台開發與管理: 負責金融科技領域基於 Data Lakehouse 架構的數據平台設計、開發、部署、維護與優化,整合結構化與非結構化數據,提供彈性高效的數據存儲與分析能力,以支持 LLM 相關應用所需的大規模數據。 •Denodo 虛擬化平台管理與開發實作: 負責 Denodo 虛擬化平台的設計與管理,實現多個異質數據源的邏輯整合,提供統一的數據存取介面,簡化數據獲取流程,以支援 LLM 應用所需的多樣化數據來源。 •數據管道開發: 設計並實作高效能的 ETL/ELT 流程,處理多元金融數據來源 (例如:交易數據、市場數據、客戶數據、文本數據等),確保數據的準確性、完整性與即時性,並能有效整合至 Data Lakehouse 或透過 Denodo 進行虛擬化,以供各單位進行分析與應用。 •數據整合與清理: 負責數據的整合、轉換、清理、標準化與特徵工程,提高數據品質,為後續的數據分析、風險模型、 AI 模型與 LLM 的訓練及微調 奠定良好基礎,並考量 Data Lakehouse 的數據治理與管理。 •AI/LLM 平台管理: 負責企業 AI 平台、LLM 相關基礎設施 (例如:GPU 伺服器、模型儲存、API 部署等) 及 MLOps 流程的維護、管理與優化,確保企業內 AI/LLM 模型開發、訓練、微調與安全部署流程的順暢與高效,符合金融保險行業的合規要求,並能有效利用 Data Lakehouse 中的數據。 •LLM 應用開發與部署: 參與金融領域大型語言模型 (LLM) 的應用開發、測試與部署,例如:AI Agent、文本分析、資訊抽取、內容生成等。 •數據監控與效能調校: 開發與運營數據管道、數據庫、Data Lakehouse、AI 平台及 LLM 應用 的監測機制,進行效能分析與調校,確保系統的穩定運行與高效能,並符合系統穩定性的嚴格要求。 •跨部門協作: 與AI 科學家、IT 部門、Biz部門 (例如:通路、核保、商品等) 等緊密合作,深入了解企業業務需求與痛點,提供穩健且高效的數據與 AI/LLM 平台解決方案,並能利用 Data Lakehouse 和 Denodo 提供的能力。
應徵
10/28
台北市中山區2年以上大學
【工作內容】 1. 將概念性想法設計規劃為可執行的解決方案 2. 大數據專案的規劃,數據接入、清洗、建模與可視化的設計 3. 與機器學習工程師、雲端架構師、PM密切合作共同合作完成專案,供客戶高質量的雲端數據相關服務 4. 負責協助客戶整合、設計、部署大數據處理流程與平臺 5. 探索雲端服務組合的可能性,創造全新的可能性 【必備技能/條件】 1. 3 年以上資料排程、處理、清洗、分析的實務經驗 2. 2 年以上資料處理常用的 Open Source 工具的實務經驗,eg. Spark, Airflow, hadoop 3. 2 年以上Python / Java 程式語言開發相關工作經驗 4. 擅長解決問題、除錯、故障排除,提出問題解決方案 【加分條件】 1. 具備BigQueryRDBMSNoSQL使用經驗 2. 具備爬蟲相關經驗 3. 熟悉 Restful API
應徵
08/13
台北市南港區經歷不拘大學
工作內容: 開發與維護自動化數據處理流程(ex: Pipeline、Airflow) 建置並優化各式網路爬蟲(ex: Requests、Playwright、Scrapy ) 使用 Django 開發後端服務與 API,串接資料庫與前端系統 操作並優化資料庫(MariaDB、Redis),確保效能與穩定性 在 AWS(EC2、S3、RDS 等)環境中部署、監控與維運服務 協作AI應用模型 必備條件: 熟悉 Python,能獨立開發爬蟲、資料處理與 API 熟悉 Django 後端框架與 RESTful API 開發 熟悉 SQL(MariaDB)與快取系統(Redis) 具備自動化排程與數據管道開發經驗 具備 AWS 雲端平台使用經驗(EC2、S3、RDS 等) 良好的溝通能力與跨部門協作經驗 加分條件: 熟悉 Docker 具備前端基礎(HTML / CSS / JavaScript)可進行簡單資料視覺化 具備 機器學習或深度學習專案經驗
應徵
07/24
台北市內湖區3年以上大學以上
【工作內容】 . 使用 Azure Databricks、Data Factory、Data Lake Gen2 等工具建立並維運 ETL 流程。 . 整合 ERP、CRM、IoT 等多來源資料,進行清洗與轉換並寫入 Azure Data Lake。 . 與資料科學團隊合作,提供模型所需的資料集與特徵工程支援(如 LightGBM、XGBoost)。 . 透過Power BI進行資料串接與報表資料結構設計,確保分析資料即時、準確。 . 撰寫技術文件,維護資料流程運作紀錄與治理機制。 【必要條件】 . 熟悉 Azure 平台操作(Databricks、Data Factory、Data Lake Gen2)。 . 熟悉 Python 語言,能獨立進行資料清洗與處理。 . 具 SQL 查詢能力與資料模型設計經驗。 . 有與資料科學或 BI 團隊協作經驗,熟悉 Power BI 或其他可視化工具資料串接。 【加分條件】 . 具備使用 LightGBM / XGBoost 經驗。 . 熟悉 Git、CI/CD、自動化流程或 Docker 等 DevOps 工具 . 有 Azure DP-203、DP-100 證照尤佳 . 英文讀寫能力佳,能閱讀技術文件與跨部門溝通
應徵
10/29
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
10/15
台北市南港區7年以上大學以上
【崗位職責】 1) 負責公司內部資料平臺的規劃、開發與持續優化,保障資料的完整性、可用性與安全性。 2) 基於 AWS 雲平臺及主流服務(如 EC2、S3、Redshift、Glue、Lambda、Athena 等)設計並實現高可用、高性能的資料處理與分析系統。 3. 設計並實施可擴展的後端服務,支援資料流程處理、ETL 流程、API 介面與任務調度邏輯。 4. 搭建並維護資料視覺化與 BI 平臺(如 QuickSight等)。 5. 深度參與資料治理、資料建模、資料品質監控等體系建設。 6. 著重資料蒐集處理流程。 7. 與業務部門合作,提供穩定高效的資料分析支援。 【任職要求】 1) 資管/資工/電機相關大學以上學歷,10 年以上軟體發展經驗,其中 5 年以上後端系統開發經驗。 2) 精通至少一種主流程式設計語言(如 Python、Java、Go 等),並熟悉 SQL 與資料處理框架(如 Spark)。 3) 熟悉 AWS 雲平臺及主流服務(S3、Redshift、Glue、Lambda、Athena 等),具備實際專案執行經驗。 4) 有大型分散式系統或資料平臺建設經驗,具備良好的系統架構能力。 5) 熟悉資料建模、資料分層架構、資料治理理念。 6) 具備 BI 視覺化系統或報表平臺的搭建與運維經驗。 7) 較強的溝通能力、團隊協作精神和自我驅動能力。
應徵
10/25
緯創軟體股份有限公司電腦軟體服務業
新北市汐止區2年以上大學以上
此職缺為集團資訊總部職務,非駐點性質工程師。 【職務描述】 • 設計與建置資料平台與資料中心,具備 Hadoop 生態系統(HDFS / Hive / YARN / HBase 等)建置與維運經驗 • 導入並維運資料平台與相關基礎設施,熟悉 Airflow、Nifi、Spark 等工具 • 規劃整體資料架構與數據流程,設計高可擴展與高效能的 ETL / ELT pipeline • 規劃資料表 schema 與資料模型,根據業務需求進行資料分區、快取策略與資料分層設計 • 協助數據團隊部署並維運機器學習模型(ML model),支援模型部署、版本管理與效能監控 • 與資料科學家、後端工程師、業務團隊密切合作,協助將模型推進至企業應用 • 建置資料平台相關的 CI/CD 流程,導入自動化測試與監控 • 監控資料流程效能與品質,進行異常檢測與自動警示設定 • 研究資料工程與 MLOps 領域新技術PoC,執行技術驗證並提出導入建議 入 【必要條件】 • 具備 3 年以上資料工程相關經驗,熟悉 ETL 流程與Hadoop 生態系建置與維運經驗 • 熟練 Python 與 SQL,能撰寫高效能的資料處理與轉換邏輯 • 熟悉資料處理工具與框架,如 Apache Airflow、Apache Nifi、Spark 等 • 熟悉 Git 與 CI/CD 工作流程,能維護自動化部署與測試機制 • 具備主動學習與問題解決能力,能獨立完成技術探索與 PoC 驗證 • 具備部署與維運機器學習模型經驗,了解模型訓練/部署/監控完整流程 現在就加入WITS團隊吧! 我們重視創新與高效,致力於為每一位員工提供最佳的工作環境,夥伴將擁有的MacBook Air M1筆電,使您能夠流暢地處理各種工作任務,並提供一台28寸的4K外接螢幕,提高工作效率和舒適度!
應徵
10/30
叡揚資訊股份有限公司電腦軟體服務業
台北市中山區經歷不拘專科以上
我們正在尋找一位對資料有熱情,並具備資料流處理能力的資料工程師,協助我們打造高效、可擴展的資料處理與資料治理平台。主要工作內容包括: 1. 進行資料治理平台之品質檢核規則開發及維護 2. 進行資料品質規則推薦功能之發想及開發 3. 與後端、DevOps 等團隊合作,溝通協調資料處理面與前台介面整合之事項 4. 撰寫與維護技術文件與數據流程說明
應徵
10/31
台北市松山區1年以上大學
COMMEET (https://commeet.co) 擴大徵才,歡迎有熱情之新夥伴加入我們的行列 [工作內容] 1 整理、標記數據,以確保數據的準確性與可靠性 2 建立/維護/優化資料處理流程與架構(data pipeline) 3 跟相關的stakeholder合作,解決並優化他們的數據需求 4 其它主管交辦事項。 [必要條件] • 從業人員恪守客戶個資保護敏感度及尊重客戶資料隱密性 • 熟悉 ML/DL • 熟悉 python 語言與相關資料庫 (csv、postgres、redis、excel) • 熟悉圖表可視化(Visualization),以及圖表分析能力 • 熟悉 git 版本控制 • 如線上初試通過者,將安排線下複試,複試安排 leetcode [加分項目] • 具有 OCR 處理數據經驗 • 有kaggle 等競賽平台經驗 • 有新創公司經驗 • 有FinTech 或 ERP/CRM 經驗 [人格特質] • 獨立作業的能力 • 細心負責任 • 勇於溝通,樂於表達自己的想法 • 喜歡主動學習新技術,願意與團隊研究及分享技術新知
應徵
10/27
台北市大安區1年以上大學以上
【About Us】 歡迎加入「國泰健康管理」!我們是一個充滿活力、追求創新、以數據和科技驅動健康管理變革的團隊!在這裡,你將與一群熱愛科技、關心健康、充滿創造力的夥伴並肩作戰,共同探索智能健康的無限可能。 我們相信「想要健康不能靠感覺」,而是基於精準數據的科學管理。 我們的使命是:整合數位、數據和 IT 技術,打造個人化的健康管理解決方案,讓人人都能擁有健康自信的人生,實踐『健康就在生活裡,解方就在數據裡』 【We Need You to …】 1.應用服務開發與維護 • 開發與維護數據應用服務(API),確保業務服務穩定運行。 • 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 • 建立與管理 CI/CD Pipeline,提升開發與部署效率。 • 持續監控服務效能,進行問題排查、升級與最佳化。 【About You】 • 熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 • 熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 • 了解容器化技術(Docker、Kubernetes)。 • 了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【Plus】 • 具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 • 具備 Terraform 或其他 IaC 工具經驗。 • 具備 DevOps / Cloud Engineer 相關工作經驗。 • 具備網路/資訊安全管理經驗。 • 具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/29
現觀科技股份有限公司電腦軟體服務業
台北市中山區經歷不拘大學
現觀科技發展產品 CovMo近20年作為橫跨美洲、歐洲、亞洲、中東等跨國22間巨頭電信企業專用之 SaaS Solution,功能包含用戶定位及手機網路訊號分析,而 Big Data Team專職於 OLAP維運及效能調教,SQL Tuning、Dashboard Visualization,並與產品開發團隊進行資料探勘及研究。 [工作內容] 1.開發大數據系統資料處理平台 2.串流資料平行處理程序開發,熟悉分散式運算,平行運算 3.解決大量資料處理時所衍生的效能,擴充與維護維運資料庫 •使用Clickhouse、MySQL/MariaDB 4.具有大數據資料解析程式開發能力 • 會有大量的Database Report,需要用SQL/Bash及Python產生 • 使用Grafana做產品資料視覺化 5.與其他系統開發工作團隊配合 6.能獨立作業,抗壓性高 [JOB DESCRIPTION]: · Maintain and optimize Clickhouse/MySQL databases performance. · Integrate datasets to provide business insight through SQL process and real-time dashboard. · Standardize the process of data collection, storage, transformation, distribution, and usage. · Coordinate with other department to utilize potential data asset towards business strategy. · Redesign DB architecture for a thousand billions data maintenance. · Develop stored proc to generate database reports. · Maintain developed MapReduce system in MySQL database. · Research a new approach to improve data pipeline. [QUALIFICATIONS]: · Knowledge of database installation process · Experience with CentOS / Ubuntu packaging · Knowledge of relevant database clients · Knowledge of mapReduce · Knowledge or experience of working basic OS and Networking database related issues. · Knowledge/experience in administration and troubleshooting for one or more of the following: · Experience performing basic optimization of database · Have an understanding of database migrations [WORKING AT BIG DATA TEAM]: · Experience with data mining, database management and flow control. · Do something meaningful; Be a part of the future of telecom technology. · Work with international colleagues. · Great career development opportunities in a growing company. #保14
應徵
10/23
群光電能科技股份有限公司其他電子零組件相關業
新北市三重區5年以上大學以上
1.負責數據處理流程設計與最佳化,包括資料蒐集、清理、轉換處理 2.執行與設計特徵工程 ( Feature Engineering ),支援機器學習與統計模型的建立 3.規劃與開發ETL 流程,確保資料穩定傳輸與整合 4.設計並維護程式架構,確保效能、可擴展性與安全性 5.與資料科學家、後端工程師跨部門協作,理解資料需求 6.建立監控與視覺化工具,提升資料品質與系統可觀測性 7.撰寫架構與流程文件 工作技能: 1.精通Python,具備資料處理與自動化腳本開發能力 2.熟悉Git版本控制與團隊協作流程 3.熟悉Linux環境與指令操作 4.使用過並能設計資料演算函式庫:TensorFlow、PyTorch、Scikit-Learn、Numpy、Pandas 等 5.具備資料視覺化經驗 ( Grafana或其他相關工具 ) 6.有使用過大數據框架 ( Spark、Hadoop、Flink ) 經驗佳 7.有使用過資料管線自動化工具 ( Airflow ) 經驗佳 8.有SQL大規模數據轉換與查詢效能優化經驗佳 9.有Docker、Kubernetes等容器化與部署技術佳
應徵
10/30
先悅資訊有限公司工商顧問服務業
台北市信義區2年以上專科
使用Trinity等工具開發ETL 熟悉SQL和StoreProcedure
應徵
07/23
台北市大安區1年以上專科
1.熟悉使用Tableau設計報表與儀表板,至少具備1年以上經驗。 2.熟悉撰寫SQL進行資料前處理,至少具備1年以上經驗。
應徵
10/30
果友科技有限公司電腦軟體服務業
台北市大安區1年以上學歷不拘
我們正在尋找一位具備後端思維的數據工程師,與企業客戶的產品與分析團隊合作,打造高品質的數據供應與自動化環境。 你的主要任務是確保數據能穩定流動、被正確處理與自動化運作,成為支撐企業決策與AI應用的堅實基礎。 【工作內容】 1. 設計、開發與維護數據流程(Data Pipeline),打造穩定且高效的數據基礎架構 2. 使用 Python(pandas、numpy 等)進行數據清理、轉換與處理 3. 建立與維護 ETL 流程,確保資料品質、完整性與可追溯性 4. 建置與串接 API 與外部資料源,整合成統一的資料服務 5. 將數據處理流程自動化,並協助部署至雲端或容器化環境(如 Docker) 6. 需「派駐」至健康管理企業現場,協同客戶團隊實作與優化數據架構 【必備技能】 - Python:具備後端開發與數據處理能力,熟悉 pandas、numpy 等數據處理套件 - API 建置與整合:具備 FastAPI 建置與類似框架設計與串接經驗 - 資料流程思維:能理解資料從來源到應用的完整流向,具備基礎 ETL 概念 【加分技能】 1. 熟悉 Docker 或其他容器化技術,能協助部署與環境管理 2. 熟悉雲端平台(AWS、GCP、Azure等),具雲端自動化部署經驗 3. 擁有資訊工程、資訊管理、數學、統計相關背景者尤佳 【我們的願景】 加入果友科技,與我們一起用數據創造影響力。 這裡是讓你深入理解企業實際運作、與資料應用團隊並肩打造自動化數據服務的最佳舞台。 有興趣歡迎投遞履歷或直接聯繫我們,期待你的加入!
應徵