![](https://i0.wp.com/thebridge.jp/wp-content/uploads/2024/05/matt-hicks-at-red-hat-summit-2024.jpg?resize=620%2C390&ssl=1)
Image credit: Red Hat
コロラド州デンバーで開催された Red Hat Summit 2024で、オープンソースソフトウェアのリーダー Red Hat は、生成 AI のパワーを企業にもたらすための主要な新しいイニシアチブを発表した。
その主役は、オープンソースの言語モデルを開発・実行するための基盤モデルプラットフォーム「 Red Hat Enterprise Linux AI(RHEL AI)」と、ドメインの専門家がその知識で AI モデルを強化できるようにするコミュニティプロジェクト「InstructLab」である。
オープンソース AI を連携・提供する他社と Red Hat の違い
Red Hat の CEO Matt Hicks 氏によると、RHEL AI はいくつかの重要な点で競合他社と一線を画している。
第一に、Red Hat はオープンソースとハイブリッド・アプローチに重点を置いている。
われわれは、AI はアプリケーションとあまり変わらないと考えています。ある場所では AI を訓練し、別の場所では AI を実行する必要があります。私たちはハードウェア・インフラに中立です。(Hicks 氏)
第二に、Red Hat には、異なるハードウェアスタック間でパフォーマンスを最適化する実績がある。
私たちには、下位のハードウェアスタックを最大限に活用できることを示す長い歴史があります。私たちは GPU を製造しているわけではありません。私は、Nvidia を彼らと同じくらい速く走らせることができます。AMD をできるだけ速く走らせることもできます。Intel や Gaudi でも同じことができます。(Hicks 氏)
場所やハードウェアのオプション性を提供しながら、さまざまなハードウェアオプションでパフォーマンスを最大化できるこの能力は、市場でもかなりユニークなものだ。
最後に、Red Hat のオープンソース・アプローチは、顧客が IP の所有権を保持することを意味する。
それはまだお客様の IP です。私たちはサービスとサブスクリプション・ビジネスを提供しますが、お客様は私たちと協力するために IP を手放すわけではありません。(Hicks 氏)
動きの速い AI 市場において、Red Hat は、オープンソース、ハイブリッドの柔軟性、ハードウェアの最適化、顧客の IP 所有権というこの組み合わせが、RHEL AIにとって重要な差別化要因になると考えている。
デンバーでの基調講演後、記者やアナリストとの質疑応答で、Red Hat のシニアバイスプレジデント兼最高製品責任者(CPO)Ashesh Badani(アシェシュ・バダニ)氏は次のように語った。
IBM Research との提携によるものであれ、顧客が独自に開発したモデルによるものであれ、私たちはこれらのモデルを大規模にデプロイし、実行する能力を拡大しています。
新たなプラットフォーム「RHEL AI」が登場
RHEL AI は、IBM Research が開発した Granite ファミリーのようなオープンソースの言語モデルと、InstructLab プロジェクトのツールを組み合わせ、モデルのカスタマイズと強化を可能にする。
最適化された RHEL オペレーティングシステム・イメージを提供し、ハードウェアアクセラレーションをサポートし、Red Hat によるエンタープライズ技術サポートを提供する。
Red Hat の最高技術責任者(CTO)兼グローバルエンジニアリング担当上級副社長 Chris Wright(クリス・ライト)氏は次のように述べた。
われわれがやろうとしているのは、顧客がアプリケーションをサポートするインフラストラクチャーにすでに行っている投資を、エンタープライズ AI、予測分析、生成 AI によるこの新しい重要なワークロードのサポートに拡張できるようにすることです。
Red Hat は、顧客が期待する信頼性と信用を単一の統合プラットフォームで提供することを目指している。Red Hat は、今日のハイブリッド・クラウド・インフラを強化すると同時に、クラウド・ネイティブ環境におけるアプリ開発とデプロイの現状を押し進めることに注力している。
顧客がすでに知っていることの多くを取り入れ、それを拡張しているので、すべてを学ぶ必要はなく、新しいことをすべて学べばよいのです。 (Wright 氏)
InstructLab は、ユーザ企業の事例から生成されたデータで LLM を強化
サミットで発表された InstructLab プロジェクトは、データサイエンスのスキルを持たないドメインエキスパートが、その知識を提供することで言語モデルを強化できるようにすることを目的としている。IBM Research が開発した LAB(Large-scale Alignment for ChatBots)と呼ばれる新しい手法を使い、少数の例から高品質の合成学習データを生成する。
LAB 法には4つのシンプルなステップがある。まず、専門家が自分の知識やスキルの例を示す。次に、「教師」となる AI モデルがこれらの例を見て、似たような学習データをたくさん作成する。
次に、この合成データの質をチェックする。最後に、言語モデルは承認された合成データから学習する。これにより、コミュニティは自分たちが知っていることを共有することで、常にモデルを改善することができる。これは、少数の人間の例を使って AI をより賢くする低コストな方法だ。
これにより、コミュニティからの貢献を通じて、モデルを継続的に改善し、微調整することができる。IBM はすでに、Meta の Llama や Mistral ファミリーなどのオープンソースのモデルの強化バージョンを作成するために LAB メソッドを使用している。
OpenShift AI 2.9
OpenShift AI もバージョン2.9にアップグレードされ、予測モデルと生成モデルの両方に対応する新機能が追加され、パートナーエコシステムも拡張された。Red Hat は、AI をどのように展開するかについて、顧客に柔軟性と選択肢を与えるというコミットメントを強調した。
Red Hat は、オープンソースのイノベーションを企業に波状的にもたらすために、AI オファリングを展開している。
開発者は InstructLab コミュニティプロジェクトですぐに始めることができ、オープンソースのモデルをドメインの知識で強化することができる。RHEL AI は開発者プレビューも開始されていて、これらのモデルに最適化され、エンタープライズサポートを備えた基盤を提供する。OpenShift AI の最新アップデートは現在一般に提供されており、予測的および生成的な AI モデルを大規模に提供する MLOps 機能を提供する。将来的には、AI ワークフローを自動化する新しい Ansible Lightspeed の提供が今年後半に予定されている。
エンタープライズ AI へのコミュニティ重視のアプローチ
RHEL AI と InstructLab によって、Red Hat は Linux と Kubernetes で行ったこと、つまりオープンソースを通じて強力なテクノロジーを幅広いコミュニティが利用できるようにすることを AI で行うことを目指している。もし成功すれば、ドメインの専門家が彼らの知識でモデルを強化し、信頼とサポートを得て本番環境に導入することを可能にすることで、企業における生成 AI の採用を加速させることができるだろう。
これは重要な呼びかけでもあります。これは、オープンの力とコミュニティの力に投資することに関する私たちの伝統を物語っています。そして私たちは、それを AI に継承できるようにしたいのです。(Badani 氏)
この文脈でオープンが意味するものをどのように拡大するかを考え始めることができるところまで、最先端の技術が到達したことに、私たちは本当に興奮しています。(Wright 氏)
【via VentureBeat】 @VentureBeat
Members
BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。無料で登録する