Das Internet ist aus unserem Leben nicht mehr wegzudenken. Für Unternehmen, die auf den digitalen Wandel setzen, hat die Migration in die Cloud daher strategischen Vorrang. Viele Unternehmen, darunter multinationale Großunternehmen sowie kleine und mittlere Firmen, führen Public- oder Hybrid-Cloud-Lösungen ein und verlegen ihre IT-Infrastruktur in die Cloud. Dies hat zu einer rapiden Zunahme der Nachfrage nach Cloud-Datenspeicherdiensten geführt. Weltweit erweitern Anbieter von Cloud-Diensten ihre Cloud-Infrastruktur, um mit dieser Entwicklung Schritt halten und davon profitieren zu können. Es ist zu erwarten, dass die Nachfrage nach Cloud-Diensten weiter deutlich steigen wird, da auch kleine und mittlere Unternehmen gezwungen sein werden, Cloud-Rechenzentren einzurichten. Cloud-Server müssen sich durch ausgezeichnete und stabile Leistung auszeichnen, um die hohen Anforderungen an die Rechenleistung bewältigen zu können. Die Komponenten, die im Gehäuse eines Servers verbaut sind – wie der Hauptprozessor (CPU), der Grafikprozessor (GPU), das Motherboard, das Kühlsystem und die Stromversorgung – müssen perfekt miteinander integriert sein, damit sie optimal funktionieren. Chenbro verfügt über umfassende elektromechanische Integrationsfähigkeiten, die wir unseren Endkunden, darunter Anbieter von Cloud-Diensten, über drei unterschiedliche Formen der Zusammenarbeit zur Verfügung stellen: OTS-Standardprodukte, JDM/ODM und OEM Plus. Unsere Lösungen beinhalten Systeme, die modular, vielseitig konfigurierbar, höchst kompatibel und äußerst markant in der Gestaltung sind. Sie bieten zudem ein Höchstmaß an elektromechanischer Integration, sodass sie den vielfältigen Anforderungen unterschiedlicher Rechenzentren gerecht werden. Die jüngste Welle der KI-Technologie, die derzeit die Welt überrollt, treibt die Nachfrage nach Hochleistungsserver-Plattformen seitens Rechenzentren und Unternehmen steil nach oben. Chenbro bietet eine neue Generation von Servergehäuse-Lösungen für Intel- und AMD-Plattformen an. Diese Lösungen wurden gemäß den Intel- und AMD-Plattformspezifikationen entworfen, um optimale Luftstromkanäle zu gewährleisten. Diese Überlegung ist besonders wichtig, weil neuere, mit PCIe GEN 5 ausgerüstete Server für Cloud-Anwendungen Datenübertragungsraten aufweisen, die doppelt so schnell sind wie bei Servern für Unternehmensanwendungen mit dem älteren Standard PCIe GEN 4. Angesichts einer breiten Auswahl an Hardware-Konfigurationen können Kunden flexibel eine Lösung wählen, die ihre spezifischen Anforderungen erfüllt. Chenbro Cloud-Servergehäuse bieten dank eines ausgeklügelten und rigorosen Konstruktionsprozesses hohe Stabilität und Zuverlässigkeit für Unternehmen und Cloud-Anwender. Dazu gehören beispielsweise die Servergehäuse der Serien RB151/RB251, die sich für allgemeinen Speicherbedarf eignen, da sie als Barebone-Server mit Intel-Motherboards ausgestattet sind. Die Gehäuse der Serien RM151/RM251 sind sowohl mit der Intel Eagle Stream- als auch mit der AMD Genoa-Plattform kompatibel. Sie eignen sich für verschiedene Festplatten-Konfigurationen und decken somit unterschiedliche Anwendungsanforderungen ab.
Angesichts des massiven Datenaufkommens, des Aufstiegs der Cloud-Dienste in der Datenverarbeitung und des wachsenden Angebots an datenabhängigen Dienstleistungen sind Daten heute wertvoller denn je. Für Unternehmen werden Datenspeicherung und Datenanalyse daher immer wichtiger, was die Nachfrage nach umfassenden Lösungen für die Datenspeicherung beflügelt. Laut der International Data Corporation (IDC), einem international tätigen Marktforschungs- und Beratungsunternehmen auf dem Gebiet der IT, verzeichnete die weltweite Datenspeicherkapazität in den letzten Jahren enorme Zuwächse. Bis 2025 wird die global verfügbare Speicherkapazität voraussichtlich von 33 ZB im Jahr 2018 auf 175 ZB anwachsen. Da Unternehmen heute eine größere Vielfalt an Daten sammeln, werden Speicherserver mit höherer Speicherdichte gebraucht. Die Nachfrage steigt daher nach Servern mit effizienten Kühlsystemen und hoher Rechenleistung. Die Bedürfnisse unserer Kunden stehen bei der Entwicklung von Produkten, die diese steigenden Anforderungen an Speicherserver erfüllen, im Mittelpunkt. Chenbro entwickelt einzigartige, konkurrenzfähige und effiziente Lösungen, die sich an den neuesten Technologien und Design-Trends orientieren. In modernen Servern müssen die Prozessoren mit hohen Rechengeschwindigkeiten arbeiten, was im Vergleich zu älteren Server-Designs zu höheren Betriebstemperaturen führt. Bei Chenbro steht der Kühlmechanismus während des Produktdesigns im Mittelpunkt, sodass ein stabiler Betrieb der Server gewährleistet ist. Musterbeispiele für die ausgezeichnete Energieeffizienz unserer Lösungen sind unsere innovativen, patentierten Gehäuse für Server mit hoher Speicherdichte. Dazu gehören beispielsweise die 2HE-Server der Serie RM25324, die von beiden Seiten bestückt werden können (Dual-Load), und die 4HE-Server der Serie RM43736, die von den Seiten und von der Front bestückt werden können (Tri-Load). Unsere aktuelle Produktpalette umfasst Speicherserver von Einsteigermodellen bis hin zu Hochleistungsvarianten, die sich durch benutzerfreundliches Design und unkomplizierte Wartung auszeichnen. Dank ihrer hohen Flexibilität und Vielfalt lassen sie sich für unterschiedliche Speicheranwendungen einsetzen, darunter die Speicherung kalter und heißer Daten, sichere Überwachung, Datenbanken und Archivserver.
Das Internet der Dinge (IoT) hat sich als grundlegende Technologie für intelligente Anwendungen in Bereichen wie Fertigung, Gesundheitswesen, Einzelhandel und Verkehrswesen etabliert. Die Anzahl der vernetzten Geräte nimmt weltweit stetig zu. Das international tätige Marktforschungsunternehmen Analytics prognostiziert daher, dass bis 2025 rund 38,6 Milliarden Geräte im Internet der Dinge eingesetzt werden und diese Zahl bis 2030 auf 50 Milliarden ansteigen wird. Angesichts der zunehmenden Anzahl vernetzter Geräte, die Daten sammeln und mit dem Internet verbunden sind, wird der Bedarf an schnellen 5G-Netzwerken mit niedrigen Latenzen immer größer. Viele Unternehmen entscheiden sich daher für eine Edge-Computing-Infrastruktur, um Probleme wie ungenügende Bandbreite, die zu instabilen Datenübertragungen oder Übertragungsunterbrechungen führen können, zu bewältigen. Edge-Server müssen auf Geräteebene bereitgestellt werden, um Rechenvorgänge auszuführen und Daten lokal zu speichern. Dieser Ansatz reduziert den Bandbreitenbedarf und verkürzt Latenz- sowie Reaktionszeiten, wodurch Unternehmen effizienter arbeiten und bessere Leistungen bieten können. Angesichts der steigenden Nachfrage nach Servern für Edge-Computing entwickelt Chenbro kontinuierlich neue Produkte, die auf die Anforderungen von Edge Computing in 5G-Telekommunikationsnetzen zugeschnitten sind. Dazu gehören verschiedene Lösungen für Basisstationen in offenen Funknetzwerken (O-RAN) und Edge-Netzwerken, wie sie von Betreibern hochverfügbarer Netzwerke benötigt werden. Wir unterstützen sie dabei, agilere Kommunikationsdienste aufzubauen. Die Serverserien RM252 und RM352 sind beispielsweise für 5G- und Edge-Computing-Anwendungen optimiert. Die Serie RM252 bietet Platz für bis zu drei PCIe-Erweiterungseinschübe in voller Höhe oder sieben schmale PCIe-Erweiterungseinschübe in einer einzelnen GPU, was die Rechenleistung für verteilte oder offene IT-Infrastruktur-Edge-Sites maximiert. Die Serie RM352 unterstützt PCIe-Erweiterungseinschübe in voller Höhe für GPU-Karten oder FPGA-Beschleunigerkarten, um Edge Computing, maschinelles Lernen und Anwendungen für Basisstationen an Edge-Sites zu optimieren.
Die von ChatGPT ausgelöste Welle der generativen KI gewinnt weiterhin an Dynamik. Die von Gartner veröffentlichten Top 10 strategischen Technologietrends 2024 zeigen, dass generative KI neue Möglichkeiten eröffnet und bisher unmögliche Aufgaben für die Menschheit realisierbar macht. Infolgedessen genießen KI-gestützte Technologien und Produkte zunehmende Aufmerksamkeit. Besonders gefragt sind KI-Server, die in der Lage sind, enorme Datenmengen zu verarbeiten, was immer wichtiger wird. KI-Trainingsmodelle erfordern erhebliche Rechenleistung und Datenspeicherplatz, um schnelle und effiziente Inferenzleistungen zu gewährleisten. Daher müssen KI-Server mit mindestens sechs bis acht GPU-Prozessoren ausgestattet werden, um große Modelle zu trainieren und riesige Datenmengen zu verarbeiten. Aufgrund der wachsenden Speicherkapazitäten muss die Struktur der KI-Servergehäuse entsprechend aufgerüstet werden, um eine bessere Integration der Serverkomponenten zu ermöglichen und mehr Elemente auf begrenztem Raum unterzubringen. Die 4HE-Servergehäuse SR113 und SR115, die sowohl stehend in einem Ständer als auch liegend in einem Rack installiert werden können, wurden speziell für GPGPU-Server für KI-Inferenz und tiefes Lernen entwickelt und sind für bis zu 5 GPGPU-Karten ausgelegt. KI-Inferenz-Server nutzen effiziente Berechnungen, um die Anforderungen an Inferenz in großem Maßstab zu erfüllen. Das Modell SR115 LCooling ist mit einem wassergekühlten Modul ausgestattet, das durch Tests nachgewiesene exzellente Wärmeabfuhr bietet. Es stellt eine starke Hardware-Unterstützung bereit und ist ein vollständig integriertes KI-Inferenz-Servergehäuse.