Red Hat ist offiziell gestartet Red Hat Enterprise Linux (RHEL) AI allgemein verfügbar. Dies ist nicht nur eine weitere Produktveröffentlichung; Dies ist ein wirklich nützlicher KI-Ansatz, der RHEL-Administratoren und Programmierern eine große Hilfe sein wird.
RHEL AI soll die Einführung im gesamten Unternehmen vereinfachen, indem es ein vollständig bootfähiges RHEL-Image bietet, das für die Serverbereitstellung in Hybrid-Cloud-Umgebungen optimiert ist. Diese optimierte bootfähige Modelllaufzeitinstanz funktioniert mit dem Granite-Modell und den InstructLab-Toolpaketen. Diese Instanz enthält ein optimiertes Modell Pytorch GPU-Laufzeit- und Beschleunigerbibliotheken für AMD Instinct MI300X, Intel- und NVIDIA-GPUs und das NeMo-Framework.
Auch: Einer Bloomberg-Umfrage zufolge verstärken Unternehmen ihre Bemühungen zur Implementierung generativer KI
Dies ist die grundlegende KI-Plattform von Red Hat. Dieses Programm soll die Entwicklung, das Testen und den Einsatz generativer KI-Modelle (Gen-KI) vereinfachen. Die neue Plattform beinhaltet eine Open-Source-Lizenz von IBM Research Granite Large Language Model (LLM) Familie, das ist Das Ausrichtungstool InstructLab basiert auf der LAB-Methodikund ein kollaborativer Ansatz zur Modellentwicklung durch das InstructLab-Projekt.
IBM-Forschung Pionier der LAB-Methodik, die synthetische Datengenerierung und mehrphasige Abstimmung nutzt, um KI/ML-Modelle ohne teuren manuellen Aufwand abzustimmen. Der von der InstructLab-Community verfeinerte LAB-Ansatz ermöglicht es Entwicklern, LLM zu erstellen und dazu beizutragen, wie sie es bei jedem anderen Open-Source-Projekt tun würden.
Mit der Einführung von InstructLab veröffentlichte IBM auch mehrere Granite-Englisch-Sprach- und Codemodelle unter der Apache-Lizenz und stellte transparente Datensätze für Schulungen und Community-Beiträge bereit. Englisches Modell Granite 7B ist jetzt in InstructLab integriert, wo Benutzer ihre Fähigkeiten gemeinsam verbessern können.
Auch: Kann KI Open Source sein? Es ist kompliziert
RHEL AI ist ebenfalls integriert Offene Schicht-KIRed Hat Machine Learning Operations (MLOps)-Plattform. Dies ermöglicht eine groß angelegte Modellbereitstellung in verteilten Kubernetes-Clustern.
Seien wir ehrlich: KI ist nicht billig. Die verfügbaren Large Language Models (LLMs) kosten zig Millionen trainiert werden. Und das, bevor Sie überhaupt über Verbesserungen für bestimmte Anwendungsfälle nachdenken. RHEL AI ist der Versuch von Red Hat, diese astronomischen Kosten auf die Realität zu reduzieren.
Auch: Untersuchungen zufolge werden die KI-Ausgaben in den nächsten fünf Jahren 632 Milliarden US-Dollar erreichen
Red Hat erreicht dies teilweise durch den Einsatz von Retrieval-Augmented Generation (RAG). RAG ermöglicht LLMs den Zugriff auf genehmigtes externes Wissen, das in Datenbanken, Dokumenten und anderen Datenquellen gespeichert ist. Dies verbessert die Fähigkeit von RHEL AI, die richtige Antwort zu liefern, nicht die Antwort, die richtig klingt.
Das bedeutet auch, dass Sie RHEL-KI-Instanzen von Fachexperten in Ihrem Unternehmen trainieren können, ohne einen Doktortitel zu benötigen. im maschinellen Lernen. Dies würde die RHEL-KI viel nützlicher machen als eine Allzweck-KI, um die Arbeit zu erledigen, die Sie erledigen müssen, anstatt Star Wars-Fanfiction zu schreiben.
Auch: Der neue Claude Enterprise-Plan von Anthropic bringt die Superkraft der KI in großem Maßstab in Unternehmen
In einer Erklärung sagte Joe Fernandes, Vizepräsident der Red Hat Foundation Model Platform: „RHEL AI bietet Fachexperten und nicht nur Datenwissenschaftlern die Möglichkeit, zu speziell entwickelten Gen-KI-Modellen über Hybrid-Clouds hinweg beizutragen und gleichzeitig IT-Organisationen zu unterstützen.“ um dieses Modell über Red Hat OpenShift AI auf die Produktion zu skalieren.“
RHEL AI ist nicht an nur eine Umgebung gebunden. RHEL AI ist so konzipiert, dass es überall dort ausgeführt werden kann, wo sich Ihre Daten befinden – ob vor Ort, am Edge oder in der öffentlichen Cloud. Diese Flexibilität ist wichtig, wenn Sie eine KI-Strategie umsetzen möchten, ohne Ihre bestehende Infrastruktur komplett zu überarbeiten.
Dieses Programm ist jetzt auf Amazon Web Services (AWS) und IBM Cloud als „Bring Your Own (BYO)“-Abonnementangebot verfügbar. In den nächsten Monaten wird das Programm als Service auf AWS, Google Cloud Platform (GCP), IBM Cloud und Microsoft Azure verfügbar sein.
Auch: Stabilitäts-KI-Text-zu-Bild-Modell kommt in das AWS-Ökosystem
Dell Technologies hat eine Zusammenarbeit angekündigt, um RHEL AI auf Dell PowerEdge-Server zu bringen. Diese Partnerschaft zielt darauf ab, die KI-Bereitstellung durch die Bereitstellung validierter Hardwarelösungen, einschließlich NVIDIA Accelerated Computing, optimiert für RHEL AI, zu vereinfachen.
Als jemand, der sich jahrzehntelang mit Open-Source-Software beschäftigt und wann mit KI gespielt hat Platte Als Stand der Technik denke ich, dass RHEL AI einen deutlichen Wandel in der Herangehensweise von Unternehmen an KI mit sich bringt. Durch die Kombination der Leistungsfähigkeit von Open Source mit Unterstützung auf Unternehmensebene positioniert sich Red Hat an der Spitze der KI-Revolution.
Der eigentliche Test wird natürlich in der Phase der Einführung und der realen Implementierung liegen. Wenn man sich jedoch die Erfolgsbilanz von Red Hat anschaut, könnte RHEL AI die Plattform sein, die KI aus dem Reich der Technologiegiganten in die Hände von Unternehmen jeder Größe bringt.