隨著網路成為人們生活不可或缺的一部分,上雲成為企業邁向數位轉型的主要策略,從跨國、大型企業到中小企業,都紛紛採用公有雲或混合雲,將地端存儲的空間遷上雲端,帶動雲端資料儲存的快速成長。全球各大雲端服務提供商都不斷擴大建置雲端中心來搶攻商機,更有為數眾多的中小型廠商也需要建置雲中心,快速帶動雲端伺服器的龐大需求。為滿足雲端伺服器的高運算需求,伺服器必須有優異且穩定的運行效能,機殼所承載的 CPU/GPU、主機板、散熱系統、電源供應器等各種零組件,必須完美的整合在一起。對此,勤誠藉由強大的機電整合能力,以 OTS 標準品、JDM/ODM、及 OEM+ 三種模式提供雲端服務商等終端客戶多樣服務,兼具供應模組化、多組態、高相容性、高差異性的多元機電整合解決方案,可滿足不同雲端資料中心的需求。 隨著AI浪潮席捲全球,帶動資料中心、企業用戶對高效能伺服器平台的強烈需求,勤誠因應市場需求推出的新一代Intel、AMD平台伺服器機殼解決方案,依照Intel、AMD平台特性,分別設計最合適的空氣流動通道。另外,雲端應用伺服器搭載Gen 5,傳輸速率是企業級伺服器Gen 4的2倍,再加上多種硬碟配置規格,可讓客戶按需求靈活選擇。勤誠雲端伺服器機殼繁瑣、嚴謹的設計流程,能為企業及雲端用戶提供高穩定、高可靠的解決方案,如RB151/RB251 T-Shaped預先搭載Intel主機板的準系統,適用主流存儲;RM151/RM251 L-Shaped系列則同時適用Intel Eagle Stream及AMD Genoa平台,提供多元硬碟配置滿足不同應用需求。
在雲端服務為主流的巨量資料時代下,各項服務都是基於數據來驅動,因此數據資料的價值愈來愈高,企業對於資料儲存、數據分析的重視程度也日益增加,衍生出龐大的資料儲存需求。根據國際調查機構 IDC 的報告顯示,近年來全球資料儲存總量的成長速度相當驚人,從 2018 年的 33ZB,預計成長到 2025 年的 175ZB。另一方面,今日企業收集的資料越來越多元,企業採用的儲存伺服器必須具備更高密度的儲存結構,對系統散熱與高效運算的需求也愈來愈明確。 為滿足企業對於儲存伺服器的更高要求,勤誠依據市場最新的技術與設計趨勢,然後以客戶需求為核心對產品進行設計,開發出具有獨特性、競爭力及更佳使用效益的產品。例如,現今伺服器搭載的處理器得具備高速運算能力,運轉起來溫度較以往產品更高,勤誠為確保系統運作過程中的穩定性,在產品設計時特別注重散熱機制,打造出絕佳散熱效能的解決方案,如 RM25324 2U Dual-load Series 與 RM43736 4U Tri-load Series 等具備創新專利的高密度儲存伺服器機殼。如今,勤誠從入門到進階的儲存伺服器,無論是使用者友善的機構設計、方便且快速的維修便利性等,都具高度彈性且多元的特色,能滿足冷熱資料保存、安全監控、資料庫,檔案伺服器等各種儲存應用。
智慧製造、智慧醫療、智慧零售、智慧交通等物聯網時代全面來臨,全球連網設備數量每年仍以飛快的速度成長。根據國際調查機構 Analytics 的預估,到 2025 年全球物聯網設備數量將達到 386 億台,到 2030 年將進一步成長至 500 億台。當全世界有數以百萬億計的操作設備都可以擷取資料並連上網路進行傳輸,除了得運用更快速、低延遲的 5G網路,為了避免網路頻寬不足導致資料傳輸不穩或中斷的問題發生,許多企業也開始選擇採用邊緣運算的網路基礎架構,透過在設備端裝置邊緣伺服器,先對從設備上擷取的資料進行運算與儲存,才能減少網路頻寬的使用與延遲,縮短回應時間,讓企業可以更有效率的營運或提供更優質的服務。 有鑒於邊緣運算伺服器需求快速湧現,勤誠針對不同的 5G 邊緣運算要求,持續創新相關產品,像是針對 O-RAN 和邊緣電信基地台設備提供的多元方案,滿足營運商對高可用性網路的需求,協助其打造更高敏捷性的通訊服務。例如,勤誠可滿足 5G 與邊緣運算應用的 RM252、RM352 系列產品均採用最佳化 I/O 設計,透過前置 I/O 和後置 I/O 連接,讓應用於不同情境的邊緣網路伺服器更易於維護與管理。其中 RM252 系列可在單一 GPU 中支援多達 3 個全高或 7 個薄型 PCIe 擴充插槽,可最大限度的為分散式或開放 IT 基礎設施邊緣站點提高運算效能;RM352 系列可支援用於 GPU 或 FPGA 加速卡的全高 PCIe 擴充插槽,滿足邊緣運算及機器學習,和基地台應用的邊緣站點中的機器學習進行了最佳化。
由 ChatGPT 引爆的生成式人工智慧浪潮正在持續發酵。國際調查機構 Gartner 發布的 2024 十大戰略技術趨勢指出,生成式 AI 將帶來新的可能性,幫助人類做到以前無法勝任的事情。依循此一趨勢,AI 相關科技與產品受到的矚目愈來愈高,尤其是可支持更大規模數據處理的 AI 伺服器,變得至關重要。由於 AI 訓練模型需要大量的運算資源與資料儲存空間,才能提供快速而高效的推理能力,支持大型模型的訓練與處理海量數據,因此,AI 伺服器必須搭載至少 6~8 顆 GPU 圖形處理器,擴充更大記憶體容量,是以 AI 伺服器機殼的設計結構也要跟著升級,才能更好整合伺服器元件,在有限的空間中裝入更多的元件。 勤誠打造 SR113 及 SR115 直立可轉機架式 4U 伺服器機箱,專屬 AI 推理和深度學習 GPGPU 伺服器機箱,最多可支援 5 張 GPGPU 卡。AI 推理伺服器可利用高效運算來滿足大規模的推理需求,更可以 SR115 LCooling 搭載水冷模組,以強大的硬體技術支援,提供散熱好、經測試驗證、完整機電整合的 AI 推理伺服器機箱。