104工作快找APP

面試通知不漏接

立即安裝APP

「資訊應用工程師 / BI & Software Engineer」的相似工作

裕隆集團總管理處_裕隆經管企業股份有限公司
共500筆
09/09
台灣帆軟有限公司電腦軟體服務業
台北市大同區經歷不拘大學
【關於帆軟】 帆軟成立於2006年,在報表BI這個領域已經有18年之久,在台灣、大陸、香港、馬來西亞、新加坡、日本等地均有分公司和客戶。台灣帆軟做為亞太地區商業智慧(BI)領導品牌,致力大數據分析及商業軟體平台供應商,擁有最專業的在地化團隊以及豐富的客戶經驗,幫助台灣300家以上的企業解決分析痛點,用資料輔助決策,協助企業從上到下實現整合平台解決方案,從資料錄入、資料清洗(ETL)至分析,最終實現各式業務場景,運用產品強大的視覺化效果,打造決策戰情室。 我們是商業智慧和數據分析平台提供商,專注商業智慧和數據分析領域,致力於為全球企業提供一站式商業智慧解決方案。倡導扁平化和自主管理,團隊間給予員工最大程度的自主性,帆軟也因此聚集一群來自各領域的優秀夥伴~ ※在校生可先實習※ base地點可選:竹北or台北 【工作內容】 1.熟悉帆軟產品(FineReport FineBI)的基礎上,使用SQL、JavaScript開發BI/報表專案。 2.輔導客戶導入帆軟產品。 3.輔導客戶導入產品及開發方法。 4.輔助客戶需求訪談。 5.協助產品改進,更加符合實際業務場景。 6.協助維護和運行外部專案。 【工作要求】 1.掌握資料庫、SQL、JavaScript知識。 2.溝通能力佳,對工作負責,能理解業務場景及流程。 3.自我學習能力,具備良好的邏輯思維能力。 4.團隊協作能力強。 5.掌握系統分析及設有BI和報表開發經驗者優先。 6.掌握專案管理知識尤佳。 【職業生涯規劃】 入職後將與PM協作推進專案,能迅速掌握開發技巧,並透過內部學習機制進行自主學習,能獨立完成開發各類專案。 職涯中的應掌握的技能包括但不僅限於:開發技術、客戶行業知識、架構設計、專案管理等觀念。 本崗位歡迎應屆畢業生。 【我們的優勢】 1.位在竹北高鐵正對面,搭車騎車都便利。 2.勞健保、團體保險等,提供最好的保障。 3.完整合理培訓流程,實現個人最佳潛力。 歡迎透過官網 https://www.fanruan.com/zh-tw 了解更多公司產品以及成功案例,歡迎您的加入!合適者我們會在5個工作日內與您聯絡,有其他問題都歡迎洽詢。
應徵
10/30
台北市中山區2年以上專科以上
(本職務主要為技術工作而非單純的數據分析) 1. 商業智慧(BI)專案需求訪談、系統分析並製作系統需求規格書文件 2. 撰寫整合測試計畫書、測試案例、準備測試資料及測試 3. Metadata 中介層設計、Dashboard、Report設計 4. 系統導入上線及使用者教育訓練 工作技能 1. 有RMDB應用與設計 (如 MSSQL 與 Oracle)使用經驗,熟悉DB架構及基本設定 2. 熟悉SQL使用 3. 有BI工具如SAP BO/ Tableau/ MS PowerBI/ IBM Cognos 等使用經驗尤佳 4. 熟悉Windows及Linux基本操作 5. 熟悉並能使用網路工具如遠端桌面、putty、WinSCP等 6. 擅長工具Oracle SQL Developer 或 PL/SQL Developer或SQL server management studio等資料庫工具 7. 熟悉MS Office Excel 且熟悉公式使用 / Word
應徵
10/20
干城數碼有限公司電腦軟體服務業
台北市中山區經歷不拘專科以上
1. ETL for 資料清理 2. SQL for 資料撈取和建立 3. store procedure for 資料處理 4. 運用BI分析報表工具:MSBI系列(AS/RS/power BI)、planning tool(IBM TM1) 5. 會SSIS加分
應徵
10/29
台北市信義區3年以上大學
您是否渴望在金融科技的前沿,以前瞻數據、AI 與 LLM 技術驅動創新,塑造未來金融服務? 科技創研中心金融科技處,正積極尋找充滿熱忱、具備專業技能的 數據暨AI工程師 加入我們的創新團隊。您將負責金融科技領域的企業級數據平台、AI 平台及 LLM 相關基礎設施的開發、管理與優化,尤其著重於 Data Lakehouse 架構的實踐與 Denodo 虛擬化技術的應用,並參與大型語言模型 (LLM) 在金融領域的應用開發與部署,確保數據的安全性、高效傳輸與穩定運作,為金融 AI/LLM 應用與策略決策提供堅實的技術後盾,助力提升金融服務的競爭力與創新能力。如果您對數據工程、AI/LLM 工程在金融領域的應用充滿熱情,並熟悉 Data Lakehouse、Denodo 等先進技術,且對 LLM 的發展與應用有深入了解,渴望在充滿挑戰與成長的環境中發揮所長,誠摯邀請您加入我們! 【工作職責】 •Data Lakehouse 平台開發與管理: 負責金融科技領域基於 Data Lakehouse 架構的數據平台設計、開發、部署、維護與優化,整合結構化與非結構化數據,提供彈性高效的數據存儲與分析能力,以支持 LLM 相關應用所需的大規模數據。 •Denodo 虛擬化平台管理與開發實作: 負責 Denodo 虛擬化平台的設計與管理,實現多個異質數據源的邏輯整合,提供統一的數據存取介面,簡化數據獲取流程,以支援 LLM 應用所需的多樣化數據來源。 •數據管道開發: 設計並實作高效能的 ETL/ELT 流程,處理多元金融數據來源 (例如:交易數據、市場數據、客戶數據、文本數據等),確保數據的準確性、完整性與即時性,並能有效整合至 Data Lakehouse 或透過 Denodo 進行虛擬化,以供各單位進行分析與應用。 •數據整合與清理: 負責數據的整合、轉換、清理、標準化與特徵工程,提高數據品質,為後續的數據分析、風險模型、 AI 模型與 LLM 的訓練及微調 奠定良好基礎,並考量 Data Lakehouse 的數據治理與管理。 •AI/LLM 平台管理: 負責企業 AI 平台、LLM 相關基礎設施 (例如:GPU 伺服器、模型儲存、API 部署等) 及 MLOps 流程的維護、管理與優化,確保企業內 AI/LLM 模型開發、訓練、微調與安全部署流程的順暢與高效,符合金融保險行業的合規要求,並能有效利用 Data Lakehouse 中的數據。 •LLM 應用開發與部署: 參與金融領域大型語言模型 (LLM) 的應用開發、測試與部署,例如:AI Agent、文本分析、資訊抽取、內容生成等。 •數據監控與效能調校: 開發與運營數據管道、數據庫、Data Lakehouse、AI 平台及 LLM 應用 的監測機制,進行效能分析與調校,確保系統的穩定運行與高效能,並符合系統穩定性的嚴格要求。 •跨部門協作: 與AI 科學家、IT 部門、Biz部門 (例如:通路、核保、商品等) 等緊密合作,深入了解企業業務需求與痛點,提供穩健且高效的數據與 AI/LLM 平台解決方案,並能利用 Data Lakehouse 和 Denodo 提供的能力。
應徵
10/28
咖米股份有限公司其它軟體及網路相關業
台北市中正區5年以上專科以上
【擴編】資深數據分析師|Senior Data Analyst Kamee咖米是結合科技與健康的品牌。 希望藉由數據替每個人打造專屬於自己的個人化健康方案,帶給世界更美好的生活! 主要提供服務包含【客製化保健品訂閱服務】及【智能健康評估系統】 ★ 咖米獲選經濟部FINDIT早期投資系列活動企業 ★ Google台灣區Project Hatcher的合作企業 ★ 鴻海集團旗下康聯生醫的戰略合作夥伴 ★ 成為北美矽谷加速器暨創投基金SparkLabs Taiwan Portfolio 我們創造開放、共享的企業文化,重視成員身心內外成長, 相信只有擁有共同目標和願景的團隊,才能一起共創未來! ▼ 咖米官網: https://kameelife.com ▼ 臺北國際會議中心產品發布會: https://youtube.com/watch?v=Qw_dZzjFFEE&feature=share7 ▼ EE TIMES國際媒體專訪: https://www.linkedin.com/feed/update/urn:li:activity:7080444553702342656 —— 我們需要 —— ■【擴編】資深數據分析師|Senior Data Analyst Kamee 正在從成長型新創邁向數據驅動決策階段, 我們需要一位能讓數據成為商業引擎的夥伴。 你將整合公司數據資料,建立自動化報表與成長模型, 讓數據不只是報表,而是驅動品牌成長的動力。 —— 你的目標 —— ■整合行銷、營運、CRM、訂閱與網站數據資料,打造能驅動成長的數據基礎。 ■分析行銷、營運與顧客行為,洞察 CAC、ROAS、LTV、留存等核心指標背後的成長關鍵點。 ■與行銷、產品、營運等部門合作,發掘成長機會並優化用戶體驗。 ■建立資料驅動文化,推動公司長期決策與預測模型的發展。 —— 期待的人 —— ■對數據有好奇心,會思考「數據想告訴我什麼真相」。 ■動手能力強、學得快,能自行接資料、建報表、跑分析,樂於優化流程。 ■具備商業敏銳度,能從數字理解營運邏輯與用戶行為。 ■擅長跨部門合作,能用數據推動行銷、工程、客服、財務更有效率地前進。 ■結果導向,重視實際成長與影響力,而非僅追求報表好看。 我們在尋找能從數據中發掘商業洞察,並以此幫助團隊推動決策的夥伴,不一定要有完整系統背景,只要具備強邏輯與實作力。 —— 經歷技能 —— 【經歷】 ■5年以上數據分析或相關經驗。 ■熟悉行銷或電商數據分析(懂 CAC、LTV、ROAS、留存率等概念)。 ■具跨部門溝通經驗,能用簡單語言說清複雜數據。 【技能】 ■熟悉 SQL、Python(或 R),能獨立清理與分析資料。 ■熟悉 GA4、Meta Ads、Google Ads、CRM 等數據串接與分析。 ■能操作 BI 工具(如 Looker Studio、Power BI、Tableau)建立互動式報表。 【加分條件】 ■熟悉 BigQuery、Redshift、Snowflake 或 API 串接整合 ■具備自動化報表或儀表板建置經驗(如 GA4、Looker Studio、Power BI) ■能運用 AI 工具(如 GPT、Gemini)輔助資料分析與模型優化 —— 主要職責 —— ■優化公司既有數據架構與自動化報表系統(GA4、CRM、投放平台、ERP、內部數據儀表板)。 ■協助行銷與產品團隊發現成長機會,分析行銷投放、顧客行為與營運成效,找出轉換與留存的驅動因素。 ■設計 CAC、ROAS、LTV、留存率等 KPI 模型與可追蹤機制。 ■跨部門協作,提供行銷與營運團隊所需的數據洞察,協助制定成長策略。 ■持續優化資料整合流程,建立公司未來資料科學基礎。 Report to Marketing head 在 Kamee,你的分析結果不只是一份報表, 而是會直接影響產品、行銷與營運策略的「決策引擎」。 如果你想親手打造一家健康科技品牌的數據策略,我們非常期待你加入! —— 薪資待遇 —— $70,000~$110,000/月 /月起(視能力與經驗彈性調整) 此職缺不接受遠端工作
應徵
07/24
台北市內湖區3年以上大學以上
【工作內容】 . 使用 Azure Databricks、Data Factory、Data Lake Gen2 等工具建立並維運 ETL 流程。 . 整合 ERP、CRM、IoT 等多來源資料,進行清洗與轉換並寫入 Azure Data Lake。 . 與資料科學團隊合作,提供模型所需的資料集與特徵工程支援(如 LightGBM、XGBoost)。 . 透過Power BI進行資料串接與報表資料結構設計,確保分析資料即時、準確。 . 撰寫技術文件,維護資料流程運作紀錄與治理機制。 【必要條件】 . 熟悉 Azure 平台操作(Databricks、Data Factory、Data Lake Gen2)。 . 熟悉 Python 語言,能獨立進行資料清洗與處理。 . 具 SQL 查詢能力與資料模型設計經驗。 . 有與資料科學或 BI 團隊協作經驗,熟悉 Power BI 或其他可視化工具資料串接。 【加分條件】 . 具備使用 LightGBM / XGBoost 經驗。 . 熟悉 Git、CI/CD、自動化流程或 Docker 等 DevOps 工具 . 有 Azure DP-203、DP-100 證照尤佳 . 英文讀寫能力佳,能閱讀技術文件與跨部門溝通
應徵
10/27
新北市中和區2年以上碩士以上
【職位簡介】 作為東森得易購大數據中心的數據工程師,您將參與全通路電商、會員經濟、生醫保健、寵物與高端生活等關鍵業務的數據基礎建設,負責資料的整合、清洗、建模與串接。協助構建跨 TV、EC、OB/IB Call Center、Regal SPA、寵物雲、民調雲的「OneID資料湖」與 AI 大腦基礎平台,推動集團邁向 AI 自動化與千人千面精準行銷。 【工作內容】 • 建置並維護企業級數據平台(Data Warehouse / Data Lake / Microsoft Fabric / AWS S3 等) • 設計並開發 ETL/ELT 流程,處理會員、交易、商品、節目、行銷等核心資料 • 串接內部 ERP、CRM、CDP、API 或外部數據源,提升數據整合效率與一致性 • 與數據科學家、商業分析師合作,優化資料模型與查詢效能 • 支援 Power BI / Copilot BI / Tableau 等商業儀表板背後的資料管線與維運 • 管理資料版本與品質監控,確保資料可信、準確與即時
應徵
10/15
台北市南港區7年以上大學以上
【崗位職責】 1) 負責公司內部資料平臺的規劃、開發與持續優化,保障資料的完整性、可用性與安全性。 2) 基於 AWS 雲平臺及主流服務(如 EC2、S3、Redshift、Glue、Lambda、Athena 等)設計並實現高可用、高性能的資料處理與分析系統。 3. 設計並實施可擴展的後端服務,支援資料流程處理、ETL 流程、API 介面與任務調度邏輯。 4. 搭建並維護資料視覺化與 BI 平臺(如 QuickSight等)。 5. 深度參與資料治理、資料建模、資料品質監控等體系建設。 6. 著重資料蒐集處理流程。 7. 與業務部門合作,提供穩定高效的資料分析支援。 【任職要求】 1) 資管/資工/電機相關大學以上學歷,10 年以上軟體發展經驗,其中 5 年以上後端系統開發經驗。 2) 精通至少一種主流程式設計語言(如 Python、Java、Go 等),並熟悉 SQL 與資料處理框架(如 Spark)。 3) 熟悉 AWS 雲平臺及主流服務(S3、Redshift、Glue、Lambda、Athena 等),具備實際專案執行經驗。 4) 有大型分散式系統或資料平臺建設經驗,具備良好的系統架構能力。 5) 熟悉資料建模、資料分層架構、資料治理理念。 6) 具備 BI 視覺化系統或報表平臺的搭建與運維經驗。 7) 較強的溝通能力、團隊協作精神和自我驅動能力。
應徵
10/28
台北市大安區1年以上專科以上
【工作內容】 1.應用服務開發與維護 開發與維護數據應用服務(API),確保業務服務穩定運行。 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 建立與管理 CI/CD Pipeline,提升開發與部署效率。 持續監控服務效能,進行問題排查、升級與最佳化。 【技能需求】 1.熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 2.熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 3.了解容器化技術(Docker、Kubernetes)。 4.了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【加分項目】 1.具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 2.具備 Terraform 或其他 IaC 工具經驗。 3.具備 DevOps / Cloud Engineer 相關工作經驗。 4.具備網路/資訊安全管理經驗。 5.具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/28
台北市中山區2年以上大學
【工作內容】 1. 將概念性想法設計規劃為可執行的解決方案 2. 大數據專案的規劃,數據接入、清洗、建模與可視化的設計 3. 與機器學習工程師、雲端架構師、PM密切合作共同合作完成專案,供客戶高質量的雲端數據相關服務 4. 負責協助客戶整合、設計、部署大數據處理流程與平臺 5. 探索雲端服務組合的可能性,創造全新的可能性 【必備技能/條件】 1. 3 年以上資料排程、處理、清洗、分析的實務經驗 2. 2 年以上資料處理常用的 Open Source 工具的實務經驗,eg. Spark, Airflow, hadoop 3. 2 年以上Python / Java 程式語言開發相關工作經驗 4. 擅長解決問題、除錯、故障排除,提出問題解決方案 【加分條件】 1. 具備BigQueryRDBMSNoSQL使用經驗 2. 具備爬蟲相關經驗 3. 熟悉 Restful API
應徵
10/29
中嘉數位股份有限公司網際網路相關業
台北市內湖區2年以上大學以上
1. SAP BO報表設計與維運。 2. ETL程式開發,熟悉Trinity尤佳。 3.運用溝通技巧與資料分析技能協助使用者釐清問題 【必需技能】 1. 熟悉SQL語法,具有至少1年以上的相關工作經驗。 2. 熟悉資料庫Greenplum 、MS SQL尤佳。 【其他技能 】 有SAP BO報表開發與資料倉儲經驗為優先。 【專業培訓】 1.提供Greenplum語法觀念/效能調教等基礎教學。 2.提供SAP BO教學 3.提供ETL工具(Trinity)專業教育訓練。 4.部門不定期開立技術/架構教學研討會。
應徵
10/29
億力資訊股份有限公司電腦軟體服務業
台北市內湖區2年以上專科以上
技術需求: (1) 熟悉SSRS 開發與SQL撰寫 (2) 具備Oracle, SQL Server Store Procedure開發經驗 (3) 具備Azure 雲端服務經驗尤佳 (4) 具備Oracle Golden Gate經驗者尤佳 工作內容: 共用服務新功能開發及維運工作 (1) 報表改寫、SIT驗測 (2) 拋轉程式盤點與開發(使用OCI Golden Gate)
應徵
10/27
台北市松山區3年以上大學以上
【團隊與角色職責】 資料分析團隊隸屬於策略營運部門,你將作為推動資料驅動決策與資料產品發展的重要角色,與團隊共同達成 • 從資料為出發,規劃與推動商業決策與解決方案,並溝通協調各業務單位合作落地執行 • 打造資料服務與產品,用資料為產品與服務帶來更高價值 • 提供各部門資料諮詢、關鍵指標設計與資料支援等服務 • 推動資料驅動決策文化 【為什麼要加入我們】 • 獨立的資料分析團隊,與其他部門並肩作戰影響每個決策 • 多元的分析議題與發展機會,重視團隊成員的成長與意見 • 擁抱挑戰、突破框架及持續成長的團隊與組織文化 【我們希望你】 • 3 年以上資料分析、資料科學或支付相關工作經驗 • 熟悉資料庫語言 SQL(e.g. MSSQL, MySQL, ClickHouse, BigQuery) • 具備良好的分析洞察與說故事能力,且善於跨部門溝通及刻畫藍圖 • 對支付產業與發展充滿好奇,想一同找出產業發展的關鍵機會 • 對資料的應用與發展充滿想法,想一同打造理想的資料團隊
應徵
10/27
台北市大同區3年以上專科以上
『加入程曦,突破技術創新! 』   您是否在尋找一個既能挑戰技術深度,又能發揮創新思維的職場?   在這裡,您不僅能夠穩定發揮技術專長,還有機會挑戰更高層次的技術領域,持續提升您的專業能力! ☆ 工作內容 - 支援客戶專案,進行客服系統規劃、客製開發與導入。 - 依據客戶需求,進行技術研究與測試。 - 內部資訊系統規劃與建置。 - 協助管理委外軟體專案。 - AI 相關應用之研究與開發導入。 ☆ 薪資與福利 - 月薪:面議。 - 佳節禮金:中秋節及端午節各3,500元,過節更有溫暖感。 - 其他福利:年終獎金、公司團保、每季聚餐補助、生日禮、快閃活動、家庭日、尾牙等。 ☆ 我們需要這樣的你 - 學歷:專科(含)以上畢業。 - 技能要求: .三年以上應用系統開發或維護開發經驗 。 .前端開發技術 (例如 jQuery/framework) 。 .具Python/.Net/Java 任一語言開發經驗。 .具MS SQL / MySQL / MariaDB 相關應用經驗。 .有AI 相關應用之實作經驗者佳。 .有系統整合應用之經驗者佳。 ☆ 立即加入我們! - 立即投遞履歷,將有專人與您聯繫! - 欲進一步了解請加入官方LINE@帳號:@980ksomj
應徵
10/29
台橡股份有限公司合成樹脂/塑膠及橡膠製造業
台北市大安區經歷不拘大學
(1) SAP系統MM系統之相關需求分析、規劃、維護及維運;需具SAP ERP 5 年以上經驗。 (2) SAP MM模組相關程式與文件版本控管;系統操作, 使用手冊之維護與教育訓練。 (3) 擅長系統規劃與開發/資訊流程與邏輯分析/Trouble Shooting /企業內流程分析與優化改善。 (4) 需熟悉SAP ABAP開發、維護(須有開發或維護 ALV、Enhancement、Smartforms、RFC 經驗) 。 (5) 有SAP 與其他系統整合開發經驗為佳。 (6) 須具備英語溝通能力。
應徵
10/30
國巨股份有限公司半導體製造業
新北市新店區1年以上大學以上
1. SAP SuccessFactors/HCM系統維護與報表開發 2. SAP BTP (CPI) 系統維護與開發 3. 專案或主管交辦事項 #LI-LY1
應徵
10/29
大樹連鎖藥局_大樹醫藥股份有限公司藥品/化妝品及清潔用品零售業
桃園市桃園區1年以上大學以上
1. 根據不同議題、資料來源,設計資料模型,並以視覺化報表的形式呈現分析結果 2. Data Lake / Data Warehouse 發展及數據梳理 3. 依照需求將分析結果製作成分析報告或報表 4. 主管交辦事項 ● 具備能力: 1. 擅長Excel、Word、PowerPoint 2. 熟悉SQL且會應用 3. 清晰的邏輯、良好的溝通與解決問題的能力 ● 其他條件: 1. 具備Tableau、Superset、Power BI應用經驗者尤佳 2. 具零售相關經驗者尤佳 3. 曾開發自然語言/文字探勘模型、研發數據標籤與應用者尤佳
應徵
10/23
群光電能科技股份有限公司其他電子零組件相關業
新北市三重區5年以上大學以上
1.負責數據處理流程設計與最佳化,包括資料蒐集、清理、轉換處理 2.執行與設計特徵工程 ( Feature Engineering ),支援機器學習與統計模型的建立 3.規劃與開發ETL 流程,確保資料穩定傳輸與整合 4.設計並維護程式架構,確保效能、可擴展性與安全性 5.與資料科學家、後端工程師跨部門協作,理解資料需求 6.建立監控與視覺化工具,提升資料品質與系統可觀測性 7.撰寫架構與流程文件 工作技能: 1.精通Python,具備資料處理與自動化腳本開發能力 2.熟悉Git版本控制與團隊協作流程 3.熟悉Linux環境與指令操作 4.使用過並能設計資料演算函式庫:TensorFlow、PyTorch、Scikit-Learn、Numpy、Pandas 等 5.具備資料視覺化經驗 ( Grafana或其他相關工具 ) 6.有使用過大數據框架 ( Spark、Hadoop、Flink ) 經驗佳 7.有使用過資料管線自動化工具 ( Airflow ) 經驗佳 8.有SQL大規模數據轉換與查詢效能優化經驗佳 9.有Docker、Kubernetes等容器化與部署技術佳
應徵
10/27
台北市大安區1年以上大學以上
【About Us】 歡迎加入「國泰健康管理」!我們是一個充滿活力、追求創新、以數據和科技驅動健康管理變革的團隊!在這裡,你將與一群熱愛科技、關心健康、充滿創造力的夥伴並肩作戰,共同探索智能健康的無限可能。 我們相信「想要健康不能靠感覺」,而是基於精準數據的科學管理。 我們的使命是:整合數位、數據和 IT 技術,打造個人化的健康管理解決方案,讓人人都能擁有健康自信的人生,實踐『健康就在生活裡,解方就在數據裡』 【We Need You to …】 1.應用服務開發與維護 • 開發與維護數據應用服務(API),確保業務服務穩定運行。 • 開發與維護 ETL Pipeline,以支援數據轉換與應用。 2.自動化與運維 • 建立與管理 CI/CD Pipeline,提升開發與部署效率。 • 持續監控服務效能,進行問題排查、升級與最佳化。 【About You】 • 熟悉基礎 Python 程式語言,能開發應用服務或數據流程。 • 熟悉資料處理流程,能設計並維護 ETL Pipeline(Airflow)。 • 了解容器化技術(Docker、Kubernetes)。 • 了解 CI/CD 與自動化運維經驗(Azure DevOps 或 GitLab)。 【Plus】 • 具備 AWS 服務(EC2、S3、RDS、Lambda、IAM 等)建置與維運經驗。 • 具備 Terraform 或其他 IaC 工具經驗。 • 具備 DevOps / Cloud Engineer 相關工作經驗。 • 具備網路/資訊安全管理經驗。 • 具備解決問題、除錯及故障排除能力,能提出解決方案。
應徵
10/28
新北市汐止區1年以上大學
1. 內容開發與落地應用專案: 以數據驅動為核心的應用專案,包含專案架構規劃、進度追蹤、跨部門協作、落地驗證、進度追蹤回報、教育訓練、專案維運與持續優化等。 2. 內容經營分析與執行: 對數位內容進行全面、系統化的評估和管理,提升內容效益與影響力,並挖掘出更具價值的數據洞察。包含新聞議題分析、多媒體內容(如影音、Podcast)的深入數據分析與執行,並執行績效追蹤檢核、專案進度回報、跨部門協作(包括教育訓練和會議)等。 3. 創新型數據應用開發: 利用創新的數據分析技術(如Generative AI、Machine Learning)優化工作流程,促進創新應用開發,提升效率和數據價值,以實現數據驅動的決策與產品改進。 4. 主管交辦之新專案、行政事項或維運事項。 【必要條件】 1. 熟GCP環境,掌握 SQL、Python、AI等執行處理能力。 2. 熟Google Analytic 4、Looker studio、Excel(函數/樞紐/VBA)、Power Point。 【加分條件】 1. Google Data Analytics 認證。 2. Google Analytic 4 認證 (有效期內)。
應徵