随着网络成为人们生活不可或缺的一部分,上云成为企业迈向数位转型的主要策略,从跨国、大型企业到中小企业,都纷纷采用公有云或混合云,将地端存储的空间迁上云端,带动云端资料储存的快速成长。全球各大云端服务提供商都不断扩大建设云端中心来抢攻商机,更有为数众多的中小型厂商也需要建设云中心,快速带动云端服务器的庞大需求。为满足云端服务器的高运算需求,服务器必须有优异且稳定的运行效能,机箱所承载的 CPU/GPU、主机板、散热系统、电源供应器等各种零组件,必须完美的整合在一起。对此,勤诚借由强大的机电整合能力,以 OTS 标准品、JDM/ODM、及 OEM+ 三种模式提供云端服务商等终端客户多样服务,兼具供应模组化、多组态、高相容性、高差异性的多元机电整合解决方案,可满足不同云端资料中心的需求。 随着AI浪潮席捲全球,带动资料中心、企业用户对高效能服务器平台的强烈需求,勤诚因应市场需求推出的新一代Intel、AMD平台伺服器机箱解决方案,依照Intel、AMD平台特性,分别设计最合适的空气流动通道。另外,云端应用服务器搭载Gen 5,传输速率是企业级伺服器Gen 4的2倍,再加上多种硬碟配置规格,可让客户按需求灵活选择。勤诚云端服务器机箱繁琐、严谨的设计流程,能为企业及云端用户提供高稳定、高可靠的解决方案,如RB151/RB251 T-Shaped预先搭载Intel主机板的准系统,适用主流存储;RM151/RM251 L-Shaped系列则同时适用Intel Eagle Stream及AMD Genoa平台,提供多元硬碟配置满足不同应用需求。
在云端服务为主流的巨量资料时代下,各项服务都是基于数据来驱动,因此数据资料的价值愈来愈高,企业对于资料储存、数据分析的重视程度也日益增加,衍生出庞大的资料储存需求。根据国际调查机构 IDC 的报告显示,近年来全球资料储存总量的成长速度相当惊人,从 2018 年的 33ZB,预计成长到 2025 年的 175ZB。另一方面,今日企业收集的资料越来越多元,企业采用的储存服务器必须具备更高密度的储存结构,对系统散热与高效运算的需求也愈来愈明确。 为满足企业对于储存服务器的更高要求,勤诚依据市场最新的技术与设计趋势,然后以客户需求为核心对产品进行设计,开发出具有独特性、竞争力及更佳使用效益的产品。例如,现今服务器搭载的处理器得具备高速运算能力,运转起来温度较以往产品更高,勤诚为确保系统运作过程中的稳定性,在产品设计时特别注重散热机制,打造出绝佳散热效能的解决方案,如 RM25324 2U Dual-load Series 与 RM43736 4U Tri-load Series 等具备创新专利的高密度储存服务器机箱。如今,勤诚从入门到进阶的储存服务器,无论是使用者友善的机构设计、方便且快速的维修便利性等,都具高度弹性且多元的特色,能满足冷热资料保存、安全监控、资料库,档案服务器等各种储存应用。
智慧製造、智慧医疗、智慧零售、智慧交通等物联网时代全面来临,全球连网设备数量每年仍以飞快的速度成长。根据国际调查机构 Analytics 的预估,到 2025 年全球物联网设备数量将达到 386 亿台,到 2030 年将进一步成长至 500 亿台。当全世界有数以百万亿计的操作设备都可以撷取资料并连上网路进行传输,除了得运用更快速、低延迟的 5G 网路,为了避免网路频宽不足导致资料传输不稳或中断的问题发生,许多企业也开始选择采用边缘运算的网络基础架构,通过在设备端装置边缘伺服器,先对从设备上撷取的资料进行运算与储存,才能减少网路频宽的使用与延迟,缩短回应时间,让企业可以更有效率的营运或提供更优质的服务。 鉴于边缘运算伺服器需求快速涌现,勤诚针对不同的 5G 边缘运算要求,持续创新相关产品,像是针对 O-RAN 和边缘电信基地台设备提供的多元方案,满足营运商对高可用性网路的需求,协助其打造更高敏捷性的通讯服务。例如,勤诚可满足 5G 与边缘运算应用的 RM252、RM352 系列产品均採用最佳化 I/O 设计,通过前置 I/O 和后置 I/O 连接,让应用于不同情境的边缘网络服务器更易于维护与管理。其中 RM252 系列可在单一 GPU 中支持多达 3 个全高或 7 个薄型 PCIe 扩充插槽,可最大限度的为分散式或开放 IT 基础设施边缘站点提高运算效能;RM352 系列可支持用于 GPU 或 FPGA 加速卡的全高 PCIe 扩充插槽,满足边缘运算及机器学习,和基地台应用的边缘站点中的机器学习进行了最佳化。
由 ChatGPT 引爆的生成式人工智能浪潮正在持续发酵。国际调查机构 Gartner 发布的 2024 十大战略技术趋势指出,生成式 AI 将带来新的可能性,帮助人类做到以前无法胜任的事情。依循此一趋势,AI 相关科技与产品受到的瞩目愈来愈高,尤其是可支持更大规模数据处理的 AI 伺服器,变得至关重要。由于 AI 训练模型需要大量的运算资源与资料储存空间,才能提供快速而高效的推理能力,支持大型模型的训练与处理海量数据,因此,AI 服务服器必须搭载至少 6~8 颗 GPU 图形处理器,扩充更大记忆体容量,是以 AI 服务器机箱的设计结构也要跟着升级,才能更好整合服务器元件,在有限的空间中装入更多的元件。 勤诚打造 SR113 及 SR115 直立可转机架式 4U 服务器机箱,专属 AI 推理和深度学习 GPGPU 服务器机箱,最多可支援 5 张 GPGPU 卡。AI 推理服务器可利用高效运算来满足大规模的推理需求,更可以 SR115 LCooling 搭载水冷模组,以强大的硬体技术支撑,提供散热好、经测试验证、完整机电整合的 AI 推理服务器机箱