104工作快找APP

面試通知不漏接

立即安裝APP

「【外商】資深數據工程師 Sr. Data Engineer (Finance Department)」的相似工作

烽泰科技有限公司
共504筆
精選
宏穩投資股份有限公司其他投資理財相關業
台北市信義區8年以上大學以上
【工作內容】 • 開發與維護交易平台後端系統 • 建置高頻交易系統,進行主機效能調校與優化 • 前後端溝通與協作,最佳化資料傳遞與處理 • 分析高頻交易數據,進行系統瓶頸分析與效能優化 • 系統架構設計與模組開發,確保高穩定性與低延遲 【我們希望你具備】 • 8 年以上程式開發經驗 • 熟悉 C/C++ 應用程式,有 server 及元件開發經驗 • 熟悉 Windows 及 Linux 系統操作與開發 • 具高頻、低延遲開發經驗 • 熟悉金融交易知識,具證券及金融業務系統開發經驗 • 溝通協調能力佳,具備團隊開發經驗和獨立作業能力 【加分項目】 • 熟悉股票/期貨的交易流程 • 具股票/期貨策略程式開發經驗(如:接收券商行情/介接券商API下單...等)
應徵
精選
宏穩投資股份有限公司其他投資理財相關業
台北市信義區3年以上大學
【工作內容】 • 參與證券交易相關系統之開發與維護(C# / .NET / C++) • 與交易員合作開發與維運交易策略程式 • 負責功能測試、效能測試、系統穩定性確認 • 協助主管與工程團隊完成日常技術任務 【我們希望你具備】 • 3 年以上軟體開發經驗 • 熟悉 C# or C++ • 熟悉windows系統 • 對金融或交易系統有興趣 • 能獨立負責任務,同時具備團隊合作能力 • 追求卓越,注重細節,對成果負責。 【加分項目】 • 熟悉股票/期貨的交易流程 • 具股票/期貨策略程式開發經驗(如:接收券商行情/介接券商API下單...等)
精選
銀鐸實業有限公司醫療器材製造業
台北市南港區2年以上專科
工作內容 1.客戶數據建置與管理:整合醫師、醫院及產品使用紀錄,設計並維護標準化 Excel/ Customer Mapping/ User Mapping。 2.銷售與拜訪紀錄數據化:整理業務拜訪紀錄、客戶產品使用頻率、營收數字,與財務/行銷協作,建立完整客戶檔案。 3.報表與分析:定期產出各產品線使用率、客戶覆蓋率、成長潛力等報表與儀表板。 4.數位化與自動化專案:評估並導入CRM;具備程式力者可建立匯入與報表自動化;為後續 AI 預測打基礎。 跨部門合作 銷售團隊:拜訪與使用資料收集 行銷團隊:活動與教育訓練 財會/營運:營收與出貨數據 IT / 外部廠商:CRM或數據系統建置
應徵
精選
寶醫科技股份有限公司電腦軟體服務業
台北市大同區3年以上大學以上
我們重視每一位同仁,致力打造輕鬆、友善的工作氛圍,鼓勵彼此合作與成長。 如果你具備技術自信、做事細心,並對醫療資訊領域懷抱熱情與企圖心,誠摯歡迎加入我們的行列! 【職 務 內 容】 • 醫療系統設計、開發、建置、上線與維護 • 撰寫相關技術文件 • 參與專案例會並進行進度報告 • UI/UX設計有專人處理 • 沒有加班文化 • 年終獎金 • 專案獎金 • 技術能力(具備二顆★以上即可,星等越高代表您的專業越被重視、越是我們期待的人才) ★ 網頁前端技術 HTML / CSS / JavaScript / jQuery / RWD ★ 微軟前端技術 C# / WPF / XAML ★ 資料庫串接與 API 開發 C# / .NET / API ★ 資料庫應用 MSSQL (能進行資料表設計、查詢撰寫、基本效能優化) ★★★ 資料庫架構設計 MSSQL (須有中大型專案經驗) ※ 若您具備醫療資訊系統相關開發經驗,將是我們極為重視的加分條件! ※ 本公司重視誠信與資訊安全,提供值得信賴的工作環境與制度。 ※ 為通勤便利,有提供機車同仁專用車位。
10/15
株式会社シエス情報電腦系統整合服務業
日本3年以上大學以上
招募台灣地區工程師 公司提供簽證的更新以及新規簽證。 可提供高度人才簽證(5年)額外加20分,提早取得永久居留權。 執行案件為一般商業、金融案件居多,會派至委託公司駐點或在宅。 【工作內容】 1.負責軟體之分析、設計以及程式撰寫。 2.規劃執行軟體架構及模組之設計,並控管軟體設計進度。 3.進行軟體之測試與修改。 4.規劃、執行與維護量產的產品。 5.協助研發軟體新技術與新工具。 【工作職缺】Python軟體開發工程師(工作經驗三年以上) 【徵求條件】JAVA,NET,C#C,C++,Python,salesforce,SAP,PHP,IOS,Android,AWS,React.Ruby.C# (其中有一至兩項擅長的項目歡迎詢問) *無日文N1以上(可無檢定證書,但需聽說讀寫流利)請勿投遞履歷,國外遠端工作不可* 【工作地點】日本關東地區 【工作時間】9:00-18:00 中午休息1小時(依客戶現場為主) 【公司制度】1.提供雇用保險、健康保險、年金保險 2.完全週休2日、GW/夏休/年末年始連休 3.工作產生的交通費實報實銷 4.一年一度健康檢查
應徵
10/16
台中市西屯區2年以上大學以上
Introduction to the job Do you like challenges and do you want to work in a fast pacing supply chain environment to support some of the biggest semiconductor companies worldwide? Are you familiar with Logistics Operations and like to managing urgent demands on a daily basis?  If this sounds like you and if you have a strong customer oriented mindset, here is your mission. Role and responsibilities For our Global Operations Center in Taiwan we are searching for Supply Chain Professionals. You fulfill the demand of our customers for spare parts and tools for their maintenance activities on some of the most complex machines in the right quantity and at the right time & cost. Time is of the essence to ensure a seamless production of our customers without interruptions on our machines. -Handling of urgent material requests from worldwide customers in a rolling 24/7 shift system with the right customer focus, while meeting all milestones related to communication and execution -Monitoring of worldwide shipments  -Ability to resolve complex issues and drive improvements to further optimize processes -Ability to support escalations and provide communication proposals for review -Constructive and reliable communication with worldwide stakeholders from all departments within ASML -This position requires shift work. Education and Experience Bachelor's Degree in related subject i.e. Supply Chain Management, Information Science, Engineering etc. preferred -Minimum 1 year of relevant experience in an international company, semiconductor industry is preferred -A tactical thinker with strong interpersonal and communication skills -Analytical thinking and ability to organize and prioritize workload Skills Working at the cutting edge of tech, you’ll always have new challenges and new problems to solve – and working together is the only way to do that. You won’t work in a silo. Instead, you’ll be part of a creative, dynamic work environment where you’ll collaborate with supportive colleagues.  There is always space for creative and unique points of view. You’ll have the flexibility and trust to choose how best to tackle tasks and solve problems. To thrive in this job, you’ll need the following skills: -Stress-resistant; act under high pressure -Flexible; willing to go the extra mile for the customer -Excellent professional communication in English, written and oral -Drive for results; does not stop until solution has been found, even when obstacles arise -Team player -Change management competencies -Convincing, pro-active and “can do” mentality -Cultural awareness -Experience with ERP system(s), SAP R/3 knowledge preferred -Ability to prioritize Diversity and inclusion ASML is an Equal Opportunity Employer that values and respects the importance of a diverse and inclusive workforce. It is the policy of the company to recruit, hire, train and promote persons in all job titles without regard to race, color, religion, sex, age, national origin, veteran status, disability, sexual orientation, or gender identity. We recognize that diversity and inclusion is a driving force in the success of our company. Need to know more about applying for a job at ASML? Read our frequently asked questions.
應徵
10/09
群越廣告科技有限公司電腦軟體服務業
台北市松山區3年以上大學以上
我們尋找一位資料敏銳度高、擁有穩健工程實作力的資料工程師,加入我們的遊戲推薦系統開發團隊! 這個職位非常適合熟悉 資料處理流程、具備 API 設計與部署經驗、懂得 推薦模型訓練實務,並熱衷於將 AI 技術應用在真實產品場景中的人才。 你將參與我們打造高效能推薦系統的核心挑戰之一:處理高頻率、多次存取的推薦查詢問題(Multiple Access / Frequent Access Patterns)。在實務上,推薦系統需支援大量使用者在極短時間內反覆觸發推薦請求(如首頁刷新、排行榜滑動、活動推薦等),對於資料快取策略、查詢優化、線上/離線計算資源分配都提出極高要求。 我們期望你能透過設計 穩定高效的資料管線與特徵服務(Feature Store),結合良好的 API 封裝,確保推薦服務在多次存取場景下依然具備良好延遲控制與回應品質,讓系統在真實流量下穩健運作、持續為玩家提供個性化、即時的推薦體驗。 線上視訊筆試,請 share screen 解題: Python 操作 SQL 語法(PyMySQL) Flask API 封裝與邏輯設計 Numpy 矩陣操作與轉換 Multithreading 多執行緒概念與應用 PyTorch 假碼撰寫與推薦演算法說明 必備條件(務必具備): Python 資料處理能力強,熟悉生態系統:pandas、numpy、pyMysql、SQLAlchemy 熟練 SQL 查詢與資料倉儲操作,具備處理大型資料集的經驗 實際操作過 Flask API 設計與服務包裝 理解推薦系統與分類/排序模型的運作,具備實作經驗 熟悉模型部署工具,例如 Flask / FastAPI、joblib、ONNX、MLflow 等 具備跨部門溝通能力與資料產品思維,能獨立拆解與解決資料問題 加分條件(非必要,但會加分) 使用過雲端資料平台:BigQuery、Snowflake、Redshift 有推薦模型訓練與優化經驗:如 DNN-based 矩陣分解、Pairwise Ranking、Embedding 模型 熟悉 強化學習、Bandit Algorithm 在推薦系統中的應用 曾設計過 AB test 並執行評估分析 實作過 Feature Store、推薦 pipeline 框架設計經驗
應徵
10/14
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
10/11
台北市大安區1年以上大學以上
【About Us】 歡迎加入「國泰健康管理」!我們是一個充滿活力、追求創新、以數據和科技驅動健康管理變革的團隊!在這裡,你將與一群熱愛科技、關心健康、充滿創造力的夥伴並肩作戰,共同探索智能健康的無限可能。 我們相信「想要健康不能靠感覺」,而是基於精準數據的科學管理。 我們的使命是:整合數位、數據和 IT 技術,打造個人化的健康管理解決方案,讓人人都能擁有健康自信的人生,實踐『健康就在生活裡,解方就在數據裡』 【We Need You to …】 1.應用服務開發與維護 • 開發與維護數據應用服務(API),確保業務服務穩定運行。 • 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 • 建立與管理 CI/CD Pipeline,提升開發與部署效率。 • 持續監控服務效能,進行問題排查、升級與最佳化。 【About You】 • 熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 • 熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 • 了解容器化技術(Docker、Kubernetes)。 • 了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【Plus】 • 具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 • 具備 Terraform 或其他 IaC 工具經驗。 • 具備 DevOps / Cloud Engineer 相關工作經驗。 • 具備網路/資訊安全管理經驗。 • 具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/16
台北市松山區1年以上高中
與售前團隊協作,共同完成客戶驗証所需的開發項目,您應可獨立開發系統串接、ETL/ELT 、dbt 核心資料模型建置。 在工作過程中,您會面對客戶、進行每日開發說明與進度匯整,需習慣自主進度掌控。 開發項目主要以資料串接、程式資料處理 (python / dbt)、雲資料處理 (aws glue / gcp workflow) 等為主。 【我們希望你】 一定要對開發工作具有熱情與自我學習不斷精進的渴望,遇到問題時,能獨立查找與判斷解決方案的可行性,若遇到無法解決的問題,也懂得如何清楚論途與提問,樂於與同仁們分享技術新知、提升自我能力,當挑戰尚不熟悉的工作內容時,充滿戰鬥力。 【職務需求】 熟悉 Python, SQL 熟悉 dbt, Airflow (Google Cloud Composer & MWAA) 熟悉 Star Schema / Snowflake Schema 設計 熟悉 Modern Data Stack 熟悉 PostgreSQL, MySQL, MongoDB 任一一種資料庫 熟悉 在雲端(AWS 為主,GCP/Azure 為輔)建置與部署資料流與資料庫。 【加分項】 熟悉 BigQuery or Redshift 熟悉 Glue or Dataflow 熟悉 Lambda or Cloud Run
應徵
10/16
台北市南港區5年以上大學
Job Summary We are seeking a highly skilled and experienced Senior Data Engineer to join our growing data team. In this role, you will design, build, and maintain scalable data pipelines and infrastructure that support analytics, machine learning, and business intelligence initiatives. You will work closely with data scientists, analysts, and software engineers to ensure data is accessible, reliable, and secure. Key Responsibilities ■ Design and implement scalable data pipelines for real-time streaming and batch ETL/ELT processing. ■ Architect data storage solutions (data lakes, warehouses) to support diverse analytics and ML needs. ■ Develop and optimize real-time data streaming systems and corresponding dashboards. ■ Ensure data quality, integrity, security, and governance across systems. ■ Plan and execute data collection, storage, and maintenance strategies for varied requirements. ■ Collaborate with data scientists, analysts, and stakeholders to deliver business-driven data solutions. ■ Mentor junior engineers and promote data engineering best practices. ■ Monitor and enhance data infrastructure performance and scalability. Qualifications ■ 5+ years of data engineering experience. ■ Expertise in SQL, Python, and big data tools (e.g., Spark, Kafka). ■ Familiar with data representation tools (e.g., Tableau, Looker Studio, Superset). ■ Proficiency with cloud platforms (e.g., GCP, AWS, Azure) and data services (e.g., BigQuery, Snowflake). ■ Proven experience in real-time streaming systems, dashboard development, and large-scale ETL design. ■ Strong knowledge of data modeling, governance, and security practices. ■ Bachelor’s degree in Computer Science, Engineering, or related field (Master’s preferred). ■ Excellent problem-solving, collaboration, and communication skills.
應徵
10/16
台北市中正區1年以上大學
[Job Description] •Develop and maintain a web-based system for financial data processing. •Implement P&L calculations, exposure tracking, and performance reporting over user-defined periods. •Integrate market data and indicators or signals from the quant team to support trading strategies. •Process and analyze external financial data sources/APIs (e.g., Bloomberg). •Ensure data accuracy, system stability, and performance optimization. •Maintenance and implementation of machine learning models. [Job Requirements] •Strong experience in backend development (Python(preferred), Node.js, or other relevant languages). •Proficiency in working with databases (SQL(preferred) or NoSQL). •Proficiency in creating and maintaining databases will be considered a plus. •Basic knowledge of frontend technologies (HTML, CSS, JavaScript) to support system integration. •Familiarity with financial markets and handling large datasets, also machine learning. •Experience in market data processing and familiarity with financial instruments is a plus. •Proficiency in written and spoken English and Chinese •Can work under pressure on ad-hoc projects *This position requires on-site test only. Please ensure you are able to attend the test in person. (僅有實體測驗,且此職位非遠距,請確保您能配合再投遞履歷) *Please provide an English resume.*
應徵
10/13
創代科技股份有限公司工商顧問服務業
台北市中山區1年以上碩士以上
我們正在尋找一位 Mid-Level 的數據工程師 (Data Engineer),主要負責 資料庫建置、ETL 流程設計與開發、數據處理與分析。目前創代科技曾執行過的專案包含了 大型語言模型產品開發(涵蓋雲端、地端、雲地混合方案)、深度學習開發(產品洞察與行為預測、時間序列預測、路線最佳化)、機器學習應用(各產業客戶的資料探勘與分析)、數據中台建置(含資料正規化、ETL 建置、導入 dbt、snowflake)!我們現在手上有各種類型的專案等著你來玩! 為什麼選擇創代科技? 創代科技是一家提供數據科學顧問服務的公司,業務涵蓋 零售、交通、物流、航運、電信、能源、犯罪、災防 等多元領域,並持續拓展至其他前沿產業。在這裡,你將接觸到多樣化的數據場景,包括乾淨度各異的資料與高度客製化的架構設計,讓你在解決各種挑戰中快速成長。 如果你熱愛學習新技術、探索創新解決方案,那麼在創代擔任數據工程師,將是你的最佳選擇。 ✅ 【職責內容】 1. 資料庫設計:熟悉資料庫概念,協助建置與維護資料倉儲、資料湖跟資料中臺。 2. ETL 或 ELT 流程開發:協助客戶建立基於地端或是雲端的資料流架構,整合多元數據來源(結構化與非結構化),構建高效數據處理系統,確保資料一致性與完整性。 3. 數據處理與協作:與資料科學家、資料分析師及後端工程師協作,處理 Data Pipeline 建置及數據收集、探勘與轉換。 4. 協助客戶工具導入:協助客戶翻新原有 Pipeline,並導入 dbt、snowflake等。 ✅ 【我們期待你具備】 1. 學歷背景:具備碩士學位, 資訊工程、資訊管理、資料科學、數學、統計、電機相關領域加分。 2. 專業技能: - 熟悉數據處理與分析,具備 ETL / ELT 流程開發與維護經驗。 - 熟悉 關聯式資料庫(如 PostgreSQL)及 圖形資料庫(如 Neo4j),擁有資料倉儲建置與操作經驗。 - 熟悉 Linux 環境,並具備版本控制工具(如 Git)使用經驗。 - 熟悉 容器化技術(如 Docker、Kubernetes),了解其生產環境運行與管理。 - 具備 Airflow 排程管理及模型部署經驗。 ✅ 【加分條件】 - 雲端服務:熟悉 GCP、AWS、Azure,具備跨雲架構整合及服務部署能力。 - 分散式系統:有 Hadoop、Spark 開發經驗者尤佳。 - 資料庫工具:具備 dbt 或是 snowflake 導入或是使用經驗。 - DevOps 經驗:具備 CI/CD 自動化部署實作經驗。 - BI 工具:熟悉 Tableau、Looker、Power BI。 - 演算法基礎:理解機器學習、深度學習背後邏輯或是應用經驗。 ✅ 【薪資待遇】 - 面議,保障年薪 14 個月。 ✅ 【公司福利】 - 彈性上下班時間、彈性居家上班福利。 - 每月享有職員不扣薪福利假、生日當月再多一天生日假。 - 不定期員工聚餐、午餐、下午茶、出遊團康活動等。 - 公司零食區、冰箱飲料、咖啡櫃永遠補給充足,讓每位新進夥伴都保證先胖五公斤! - 保障年終獎金 2 個月,其他績效獎金還可以靠自己爭取,亦提供結婚、生育等各項禮金。 - 電腦設備:公司提供工作機,亦可自備設備並領取每月電腦補助費。 - 每年提供教育訓練補助。 - 提供定期健康檢查補助。 - 每年定期進行績效考核,讓職員的升遷與薪資調整更有依據與保障。 ✅ 此職缺定位為 Mid-Level,尋找 1 - 3 年經驗的人選
應徵
10/14
聯和科創股份有限公司電腦系統整合服務業
台北市中山區5年以上大學
此職務你會與其他管理、PM、工程師夥伴們一起優化產品系統,透過數據分析提供團隊數據進而提供策略性的建議,一同打造更好的操作介面。 1. 數據閱讀與分析能力。 2. 統整數據、用戶研究、市場分析後,根據目標打造符合市場需求的功能。 3. 與研發、設計、測試團隊緊密合作,制定符合成本效益的產品規格。 4. 訂定、追蹤專案時程、測試及後續上線後的成效追蹤和維運管理。 5. 質量管理:監控專案的質量標準,確保交付的成果符合組織的質量期望,推動和實施質量改進措施。 6. 專業發展:持續學習和更新專業知識。 7. 參與業內研討會和培訓,了解最新的專案管理趨勢。 8. 協作和培養領導力:促進協作和團隊合作,建立正面的工作環境。培養自身領導力,激勵團隊成員達成共同的目標。 9. 風險管理:識別、評估和管理專案可能面臨的風險,並制定應對策略以最大程度地減少對專案的影響。 10. 報告與評估:定期向管理層報告專案進度、問題和解決方案,並根據專案結束時的結果進行評估和學習。 【加分條件】 1. 熟悉Linux 指令、Windows cmd 指令、Apache、Nginx、和 SSH key
應徵
10/05
炬識科技股份有限公司電腦軟體服務業
台北市中山區1年以上大學
炬識科技(Athemaster)2024.05 宣布,推出全新資料品質產品「Athemaster DQSentry」,幫助企業掌控真實資料品質,將企業資料產製成具更高商業價值的企業專屬大型語言模型等資料產品,加速AI數位轉型進程。 ▎你想知道的 Athemaster: 請前往:https://linktr.ee/athemaster ▎Athemaster | 你會遇見這10種生活方式 https://reurl.cc/koZGGr ▎Why Join Us ● 2種開發模式:瀑布 & 敏捷 雙刀流 [ 獲台灣敏捷協會 #2024 #2025 敏捷大賞獎 ] ● 5種職系任你混搭搭配:每年依照個人意願打造專屬的成長路徑與職涯,不是工作量增加,而是組合技增加。 ● 25堂阿基米德創客間:雙週五的固定學習講座課程,來自內部6個社群與聘請外部講師共學。 ● 98% 以上機率可以 Work & Life Balance:此為所有專案成員的共同目標,並且認真執行。 ● 200個以上的學習資源:包含線上課、電子書、實體書及多樣化的學習方式。 ▎Job Description 參與內外部專案,幫助企業客戶運維 Data infra(資料基礎建設)、研發 Data pipeline(資料管線) 與 Data products(資料產品),整合與提升企業商務系統,以滿足 Data-Driven 數據驅動之轉型目標。並與團隊一起發展 Athemaster 2.0 data project 方法論。 ▎主要工作內容 - Data pipeline 設計 - Data pipeline 程式撰寫與測試 - Data pipeline 部署與維運 - Data products 之運維(Data Products:例如資料表、演算法(模型)、API、儀表板或應用系統) ▎我們希望你有的經驗跟特質 - 對 Data-Driven Business 和 Data Engineering 有極大的熱情。 - 了解架構資料平台所需的相關技術,例如 RDBMS, NoSQL DB, Search Engine, Data Warehouse, Event Streaming Platform 等。 - 有 ETL 或資料分析案之專案經驗。 - 樂於與團隊互動、與客戶合作,並回應變化,願意了解客戶產業的領域知識以開發可用的軟體。 - 認同溝通的雙向性,職務內所需之訊息主動聽取、提出必要問題以正確理解,不依靠他人作為自己的眼睛、耳朵與嘴巴。 - 認同權限與責任對等原則,尊重擔負責任者經共識活動後的最終決策,並接受自己角色範圍內的指派。 - 認同角色範圍內個人能力應穩定輸出,達成預期之客戶價值。認同喜好或優先於團隊的個人考慮並非挑撿任務之合理原因。 - 樂於學習最新的技術,隨時充實自我的專業技能。 ▎應徵條件 - 熟悉 Python 程式語言。Athemaster主要用 Python & Java。 - 熟悉至少一種 SQL **與** NoSQL 資料庫的運用。例如 MySQL、PostgreSQL、Mongo 任一種。 - 具有分散式運算的相關知識。例如 Spark、Hadoop、Hive、impala、kafka等。 - 熟悉 Git, Jenkis, Airflow 等 Data Pipeline 開發關聯系統之使用。 - 至少 3 年工作經驗 - 1 年以上擔任 Data Engineer 角色參與專案之經驗,並熟悉 ETL 流程 ▎加分條件 - 願意參與 Data infra 維運(Data Infra:各種儲存結構化或半結構化資料的系統)。 - 願意參與運維最佳化系統效率與穩定度,架構高速、穩定且容易擴充的計算平台。 - 具有使用 NoSQL 的實務經驗。例如 HBase、Cassandra、Redis、MongoDB 等一種或多種相關技術。 - 具有使用 Streaming 資料處理系統的實務經驗。例如 Spark-streaming、Kafka、Flink 等。 - 具有使用 ETL Tool 資料整合工具的實務經驗。例如 Informatica, NiFi, Pentaho 等。 - 熟悉任一種視覺化工具。例如 Tableau, Power BI, Redash 等。
應徵
10/14
海科科技有限公司其它軟體及網路相關業
台北市中山區3年以上大學以上
【Who we are ?】 Hytech是一個年輕、充滿活力的團隊,專注於推動金融科技行業的企業技術轉型,是全球領先的管理技術諮詢公司。創新思維和扁平化的管理,讓團隊成員以公開、透明的方式自在工作,也為全球客戶提供卓越的商業價值服務。 【Why join the team? 】 Hytech 團隊在共事的過程中核心技術會與時俱進,即時討論,並且有良好的溝通管道,扁平化管理,任何問題或意見都可以討論及合作解決。密切的與跨國同事團隊交流。 【About the role - Data Analyst】 As a Data Analyst at Hytech, you will analyze user behavior on financial trading platforms, focusing on app users and their growth journey, including conversion and retention metrics. You will leverage insights from user behavior data to optimize engagement channels—such as push notifications—driving the conversion of registered users into funded, active traders. (作為 Hytech 的數據分析師,您將負責分析金融交易平台上的用戶行為,專注於應用程式用戶增長過程,包括轉化與留存指標。您將運用數據洞察優化平台渠道,例如透過推播通知,提升用戶參與度,並促使一般用戶轉化為活躍交易者) 【身為團隊的一份子您將負責】 1. Develop, implement, and maintain leading analytical systems to solve complex problems and build simplified frameworks. (開發、實施並維護領先的分析系統,以解決複雜問題並建立簡化框架) 2. Analyze complex datasets to identify growth trends and opportunities. (分析複雜數據集,識別增長趨勢與商機) 3. Evaluate organizational methodologies and provide source-to-target mapping and information model specification documents for datasets. (評估組織方法,提供數據集的來源到目標映射,以及資訊模型規範文件) 4. Create best-practice reports based on data cleansing, analysis, and visualization. (基於數據清理、分析與可視化,建立最佳實踐報告) 5. Assess the efficiency, issues, and inaccuracies of internal systems, and establish and maintain standard processes for handling, processing, and cleansing data. (評估內部系統的效率、問題與不準確性,制定並維護數據處理、整理與清理的標準流程) 6. Collaborate directly with management and users to gather requirements, provide status updates, and build strong relationships. (直接與管理層及內部用戶合作,收集需求、提供狀態更新,並建立穩固的合作關係) 7. Work closely with project/product managers to understand and continuously address their analytical needs, including identifying key metrics and KPIs, and providing actionable insights to relevant decision-makers. (與專案/產品經理密切合作,了解並持續關注其分析需求,包括識別關鍵指標與 KPI,並向相關決策者提供可行的數據洞察) 8. Proactively analyze data to respond to key stakeholder questions or spontaneous inquiries, focusing on factors driving business performance and investigating and communicating areas for improving efficiency and productivity. (主動分析數據,回應關鍵問題或突發性需求,關注推動業務績效的因素,並調查與溝通可提升效率與生產力的改進方向) 9. Interpret and analyze data to create and maintain interactive visualizations, integrating various reporting components from multiple data sources. (解讀與分析數據,建立並維護互動式視覺化報表,整合來自多個數據來源的各類報告元件) 10. Define and implement data acquisition and integration logic, selecting appropriate methodologies and toolsets to ensure optimal scalability and performance within the defined technology stack. (定義並實施數據獲取與整合邏輯,選擇適當的方法與工具組合,確保解決方案在既定技術架構下達到最佳的可擴展性與效能)
10/13
HUA AO_香港商創金科技有限公司其它軟體及網路相關業
台北市大同區2年以上專科
【工作內容】 1. 熟練掌握 SQL、Python,瞭解數據建模理論 2. 熟悉數據倉庫工具(如 Snowflake、Redshift、BigQuery、Databricks 等) 3. 使用 BI 可視化工具(如 Power BI、Tableau、Looker) 4. 有支付相關業務(如交易數據、支付成本、渠道分潤)分析經驗 5. 具 ETL 構建經驗,熟悉 Airflow、DBT 等數據編排工具經驗 【加分條件】 有參與資料平台、BI 系統或數據倉儲專案的經驗,能獨立完成中小型任務 熟悉 Git、CI/CD、Docker 等基礎 DevOps 工具者佳 參與團隊數據治理與標準制定經驗者尤佳 具備良好的跨部門溝通與協作能力,能協助推動任務執行與進度管理
應徵
10/08
FPT_艾福提資訊有限公司電腦軟體服務業
台北市信義區5年以上學歷不拘
Responsibilities Design, build, and maintain large-scale data pipelines using Python and SQL. Support data analytics and visualization related to crypto/trading platforms (Tableau). Collaborate with cross-functional teams on database design, performance tuning, and data integration. Ensure data quality, scalability, and high-performance architecture. Provide guidance and mentorship to junior engineers. Requirements 5+ years of experience in data engineering or backend development. Strong expertise in Python and SQL. Knowledge of crypto/trading platforms is highly preferred. Familiarity with Tableau or other BI tools. Candidate with China resource background is preferred. Mandarin speaking leader, High technical bar, English speaking candidate is OK if has really good technical skill
應徵
10/16
台北市大同區經歷不拘大學以上
【工作內容】 1.協助客戶安裝與部署 Pentaho 產品,包括 Pentaho Data Integration(PDI)、Pentaho Server 和 Pentaho Report Designer。 2.使用 ETL 工具(Pentaho PDI、Talend、Informatica、Microsoft SSIS 等)進行數據抽取、轉換與載入,確保資料正確性與完整性。 3.熟悉 Python 或 Java 等程式語言,能撰寫 ETL 腳本與自動化流程。 4.設計並維護 Data Model,建立高效、可擴充的數據架構。 5.開發與維護 Data Warehouse,確保數據一致性、完整性與可靠性。 6.熟悉 SQL 與常見資料庫(RDBMS / NoSQL),能分析並解決複雜的資料問題。 7.協助客戶安裝與配置 OpenMetadata,並整合至既有數據管理環境。 8.使用 OpenMetadata 平台建立與維護數據資產目錄,協助定義數據標準、數據政策與分類。 9.整合 OpenMetadata 與其他數據管理工具(ETL、資料庫、BI 工具等)。 10.撰寫專案與技術文件,包括安裝手冊、教育訓練教材與客戶需求文件。 11.參與客戶需求訪談,協助規劃與導入完整的數據平台解決方案。 12.其他主管交辦事項。 【必要條件】 1.具備 SQL 語法與資料結構基礎,理解 Data Flow 並能應用於實務案例。 2.熟悉 ETL 工具操作與數據處理邏輯。 3.至少熟悉一種程式語言(Python / Java),能進行自動化與流程開發。 4.理解 Data Model 設計理論並具備實務經驗。 5.良好的溝通能力,能與客戶合作並釐清需求。 6.具備獨立作業與問題解決能力,能快速學習新技術。 【加分條件】 熟悉 Pentaho PDI 或 OpenMetadata 平台。 具備 Data Warehouse、資料治理、資料湖泊等相關經驗。 有報表系統(如 Pentaho Report Designer、Power BI、Tableau)應用經驗。 瞭解雲端數據平台(如 AWS Redshift、GCP BigQuery、Snowflake)尤佳。 具備教育訓練、技術文件撰寫與客戶導入顧問經驗。 【發展方向】 短期(1–2 年):熟悉 Pentaho / OpenMetadata / DWH 平台導入,能獨立執行專案模組。 中期(2–4 年):成為能夠進行跨系統數據整合與數據治理規劃的顧問。 長期(5 年以上):成長為資料架構師 / 雲端數據平台專家,能帶領團隊規劃企業級數據平台。
應徵
10/16
台北市松山區1年以上高中
【工作內容】 與團隊協作,共同完成各客戶的資料流開發,同時協助團隊梳理與排除運作中的 data pipeline 產生的各種突發程式狀況,並完成記錄與建檔,您應可獨立開發系統串接、大資料清整。在工作過程中,您會與工程團隊、設計團隊、產品團隊溝通協作,完成規劃之項目與習慣自主進度掌控,例如資料串接、資料爬取、數據報告等。 【我們希望你】 一定要對開發工作具有熱情與自我學習不斷精進的渴望,遇到問題時,能獨立查找與判斷解決方案的可行性,若遇到無法解決的問題,也懂得如何清楚論途與提問,樂於與同仁們分享技術新知、提升自我能力,當挑戰尚不熟悉的工作內容時,充滿戰鬥力。 【職務需求】 熟悉 Python, SQL 熟悉 dbt, Airflow (Google Cloud Composer & MWAA) 熟悉 Star Schema / Snowflake Schema 設計 熟悉 Modern Data Stack 熟悉 PostgreSQL, MySQL, MongoDB 任一一種資料庫 【加分項】 熟悉 BigQuery or Redshift 熟悉 Glue or Dataflow 熟悉 Lambda or Cloud Run 【面試流程】 [實體] 一面
➀ 公司文化與價值觀討論
 ➁ 專案經歷與履歷討論
 ➂ 公司介紹(商業模式、團隊組成、工作內容)
 ➃ 公司相關問題 Q & A [線上] 二面 
 ➀ 線上題目,線上題目,用 HackMD 進行,內容包含 SQL、Pandas、ETL 基礎概念 ➁ 情境題(模擬完整商業需求)
應徵
10/13
鴻宇科技服務有限公司電腦軟體服務業
台北市內湖區2年以上高中以上
- 可接受駐點性質工作:需配合派駐至客戶端,參與並執行軟體專案開發任務。 - 工作態度與團隊合作:具備主動學習精神,重視紀律與責任感,樂於與團隊協作,共同達成專案目標。 - 專業背景與經驗: 具備至少兩年以上程式設計師(PG)、系統開發人員(SD)、系統分析師(SA)、專案經理(PM)、資訊管理人員(MIS)、軟體測試人員(QA)或技術客服(TS)等相關職務。具備專案執行能力,擁有相關專業證照者尤佳。 - 工作地點:台北市內湖為面試地點,實際派駐地點依客戶端需求而定。
應徵
07/24
台北市內湖區3年以上大學以上
【工作內容】 . 使用 Azure Databricks、Data Factory、Data Lake Gen2 等工具建立並維運 ETL 流程。 . 整合 ERP、CRM、IoT 等多來源資料,進行清洗與轉換並寫入 Azure Data Lake。 . 與資料科學團隊合作,提供模型所需的資料集與特徵工程支援(如 LightGBM、XGBoost)。 . 透過Power BI進行資料串接與報表資料結構設計,確保分析資料即時、準確。 . 撰寫技術文件,維護資料流程運作紀錄與治理機制。 【必要條件】 . 熟悉 Azure 平台操作(Databricks、Data Factory、Data Lake Gen2)。 . 熟悉 Python 語言,能獨立進行資料清洗與處理。 . 具 SQL 查詢能力與資料模型設計經驗。 . 有與資料科學或 BI 團隊協作經驗,熟悉 Power BI 或其他可視化工具資料串接。 【加分條件】 . 具備使用 LightGBM / XGBoost 經驗。 . 熟悉 Git、CI/CD、自動化流程或 Docker 等 DevOps 工具 . 有 Azure DP-203、DP-100 證照尤佳 . 英文讀寫能力佳,能閱讀技術文件與跨部門溝通
應徵
10/15
天下雜誌股份有限公司雜誌/期刊出版業
台北市中山區2年以上大學以上
【職責】 1. 參與設計與維護數據基礎設施和數據管線 (Data pipeline - ETL/ELT) ,以支援關鍵業務應用 (如MarTech、AdTech、CDP、CRM、推薦系統、標籤等) 與數據應用需求 2. 協助進行數據創新應用和架構研究,特別是支援 AI/ML 專案的數據準備與供應,並參與新興數據技術的研究與導入 (如 Gen AI 相關數據集技術或 Data Lakehouse) 3. 協助執行數據品質、治理與安全相關任務,確保數據的準確性、完整性與合規性 4. 具備獨立執行數據工程任務的能力,負責從概念發想到最終部署的完整流程。同時,與團隊成員緊密協作,共同完成專案,以確保最終成果符合部門的發展目標與方向。 5. 與數據分析師、專案經理、業務團隊及 IT 部門協作, 理解業務需求並協助轉化為技術性數據解決方案 6. 積極學習新技術,並能與團隊成員有效協作、分享知識 【工作內容】 1. 開發、維護和優化複雜的批次和即時數據管線,從多個異質數據源 (包括但不限於 MarTech、AdTech、CDP、CRM、Events log等) 擷取、轉換與載入數據 2. 參與建構與維護基於雲端的數據儲存與處理架構,如數據湖 (Data Lake) 或數據湖倉 (Data Lakehouse),確保系統穩定運行 3. 建構與維護 AI/ML 應用所需的數據集,包括特徵工程數據管線,並研究與實現為 LLM 應用準備數據的機制 (如 MCP 或 RAG 相關數據流程) 4. 參與設計與開發數據服務層 (Data Serving),提供數據 API 或串流數據供下游應用使用 5. 優化現有數據系統和查詢效能,進行效能調校,降低數據處理延遲,提升系統效率 6. 操作與維護自動化的數據流程管理機制,使用 Airflow 等工具進行任務排程與監控 7. 協助建立與維護自動化測試、監控和警報機制,以確保數據平台穩定運行 8. 執行數據治理框架下的具體任務,例如追蹤數據血緣 (Data Lineage),並確保數據處理符合相關法規 9 . 持續學習新興數據技術和行業趨勢 (如 Data Lakehouse, Gen AI 相關技術),並與團隊分享 【技能要求】 1. 具備數據工程相關工作經驗 2 年以上 2. 熟悉 Python 和 SQL,具備良好的程式撰寫能力與數據庫操作能力 3. 具備 Data Orchestration 的實務經驗,熟悉 Airflow 的工作流開發與維護 4. 熟悉至少一個主流雲端平台 (GCP 優先考慮),並對其數據相關服務具備使用經驗 (例如:GCP 的 BigQuery, Cloud Storage, Dataflow, Pub/Sub, Cloud Run, Vertex AI, Composer等) 5. 熟悉數據倉儲 (Data Lakehouse) 或數據湖 (Data Lake) 的概念,並具備協助建構或維護的經驗 6. 熟悉 Git 版本控制系統和 CI/CD 流程 7. 理解數據安全原則、存取控制、數據加密和數據治理概念 【部門介紹】 天下雜誌集團的數據工程師,是數位創新團隊不可或缺的數據架構基石,肩負著以數據賦能的核心使命。此職位的核心職責在於設計、建構並維護高效、穩健的數據基礎設施與數據管線,透過確保數據品質與可用性,以支援推薦系統、CRM、AI/ML 等關鍵應用。我們將與數據工程師攜手,共同推動內容及商務營運目標,將數據驅動的文化深植於日常工作中。 集團旗下擁有《天下》、《康健》、《天下學習》、《親子天下》等知名品牌,涵蓋財經管理、健康生活、工作職場與親子教育等領域。對數據團隊而言,我們就像多家公司合體運作,每個品牌都有獨特的商業模式與需求。從電商、內容訂閱到線上教育的數據應用,你都將有機會深入參與,發揮專業價值,探索多元場景。
應徵
10/14
台北市內湖區1年以上大學
工作內容: • Designing and maintaining cloud-based data warehouse, including data collection, modeling, and storage. • Maintaining batch and streaming pipelines, ensuring data quality. • Developing data APIs based on product requirements and deploying them to Kubernetes using Gitlab CI/CD. • Understanding user needs and handling data retrieval and dashboard support tasks. • Continuously learning, optimizing data architectures, and introducing new technologies.