Run:ai
Run:ai

AI リソースを最適化してオーケストレーションし、より高速に実行します

Run:aiの詳細

製品情報

ウェブサイト

https://www.run.ai

所在地

米国ニューヨーク州ニューヨーク テルアビブ、イスラエル

製品説明

Run:ai は、AI およびディープ ラーニング ワークロードの GPU コンピューティング リソースを最適化およびオーケストレーションします。

実行:ai 開発

AI 開発と市場投入までの時間を短縮する

  • お気に入りのツールやフレームワークを使用してカスタマイズしたワークスペースを起動します。
  • 単一のコマンドラインでバッチジョブをキューに入れ、分散トレーニングを実行します。
  • 推論モデルを 1 か所からデプロイして管理する

エコシステム

GPU の可用性を高め、AI 投資の収益を倍増します

  • ワークロード
  • 資産
  • 指標
  • 管理者
  • 認証と認可

Run:ai API

  • ワークロード
  • 資産
  • 指標
  • 管理者
  • 認証と認可

Run:ai コントロール プレーン

独自のインフラストラクチャに導入します。雲。オンプレミス。エアギャップ。

  • マルチクラスタ管理
  • ダッシュボードとレポート
  • ワークロード管理
  • リソース アクセス ポリシー
  • ワークロード ポリシー
  • 認可とアクセス制御

Run:ai クラスタ エンジン

新しい AI クラスターを紹介します。活用されています。スケーラブル。管理下。

  • AI ワークロード スケジューラ
  • ノードプーリング
  • コンテナオーケストレーション
  • GPU 分割
  • GPU ノード
  • CPU ノード
  • ストレージ
  • ネットワーク

CLI と GUI

Run:ai は、AI ワークロードとインフラストラクチャを管理するための使いやすいコマンドライン インターフェイス (CLI) と包括的なグラフィカル ユーザー インターフェイス (GUI) を提供します。 CLI は高度な制御機能とスクリプト機能を提供し、GUI はプラットフォームの監視、構成、操作のための直観的なビジュアル エクスペリエンスを提供します。

ワークスペース

ワークスペースは、AI 実践者が作業する分離された環境です。自分のプロジェクトに取り組むことができます。これらのワークスペースには、必要なツール、ライブラリ、依存関係が事前に構成されているため、セットアップ プロセスが簡素化され、チーム間の一貫性が確保されます。 ワークスペースは、特定のプロジェクト要件を満たすようにカスタマイズでき、簡単にクローンを作成したり、共同作業者と共有したりできます。

ツール

Run:ai は、ワークスペースの効率と生産性を向上させるために設計された一連のツールを提供します。 AI開発。このツールは、Jupyter Notebook の統合、TensorBoard の視覚化、モデル追跡などの機能を提供します。これらのツールは、ワークフローを合理化し、データ分析を簡素化し、チーム メンバー間のコラボレーションを向上させます。

オープンソース フレームワーク

Run:ai は、TensorFlow を含む、広く普及しているオープンソース AI フレームワークをサポートしています。 、PyTorch、JAX、および Keras。これにより、開発者は、既存のコードベースを特殊なプラットフォームに適合させる必要なく、好みのツールやライブラリを活用できるようになります。

LLM カタログ

Run:ai は、厳選されたコレクションである LLM カタログを提供します。一般的なラージ言語モデル (LLM) とそれに対応する構成。このカタログにより、最先端の LLM の導入と実験が容易になり、高度な言語処理機能を活用する AI アプリケーションの開発が加速します。

ワークロード

実行: ai プラットフォームを使用すると、次のようなさまざまな AI ワークロードを効果的に管理できます。
* **トレーニング:** Run:ai は分散トレーニング ジョブを最適化し、複数の GPU にわたる大規模なデータセットでモデルを効果的にトレーニングできるようにします。
* **推論:** Run:ai はモデルのデプロイと推論を合理化し、リアルタイム予測またはバッチ処理用にモデルをデプロイできるようにします。
* **ノートブック ファーム:** Run:ai は、スケーラブルなノートブック ファームの作成と管理をサポートし、データ探索とモデル プロトタイピングのための共同作業環境を提供します。
* **研究プロジェクト:** Run:ai は研究活動を促進するように設計されており、新しいモデル、アルゴリズム、技術を実験するためのプラットフォームを提供します。

アセット

Run:ai を使用すると、ユーザーは次のような AI アセットを管理および共有できます。
* **モデル:** 簡単にアクセスして展開できるように、トレーニングされたモデルを保存およびバージョン管理します。
* **データセット:** トレーニング ジョブで効率的に使用できるように、大規模なデータセットを保存および管理します。
* **コード:** AI プロジェクトに関連するコードを共有し、共同作業します。
* **実験:** さまざまな AI 実験の結果を追跡し、比較します。

メトリクス

Run:ai は包括的なモニタリングおよびレポート機能を提供し、ユーザーが AI ワークロードとインフラストラクチャに関連する主要なメトリクスを追跡できるようにします。これには以下が含まれます。
* **GPU 使用率:** クラスタ全体の GPU 使用率を監視し、効率的なリソース割り当てを確保します。
* **ワークロードのパフォーマンス:** トレーニングと推論ジョブのパフォーマンスを追跡し、ボトルネックと最適化の機会を特定します。
* **リソース消費量:** CPU、メモリ、ネットワークの使用状況を監視し、リソースの使用率と潜在的な最適化戦略についての洞察を提供します。

Admin

Run:ai は、プラットフォームとそのユーザーを管理するための次のような管理ツールを提供します。
* **ユーザー管理:** さまざまなユーザーのアクセス権と権限を制御します。またはグループ。
* **クラスター構成:** AI クラスター内のハードウェアとソフトウェア リソースを構成します。
* **ポリシーの施行:** リソース割り当てポリシーを定義して施行し、公平性と効率性を確保します。

認証と認可

Run:ai は、リソースや機密データへのアクセスを制御するための安全な認証および認可メカニズムを提供します。これには次のものが含まれます。
* **シングル サインオン (SSO):** 既存の ID プロバイダーと統合して、シームレスなユーザー認証を実現します。
* **ロールベースのアクセス制御 (RBAC):** 特定の権限を持つロールを定義し、リソースへのアクセスをきめ細かく制御します。
* **多要素認証 (MFA):** ユーザーのログインに複数の要素を要求することでセキュリティを強化します。

マルチクラスター管理

Run:ai を使用すると、中央のコントロール プレーンから複数の AI クラスターを管理できます。これにより、組織は次のことが可能になります。
* **リソースの統合:** さまざまなクラスター間でリソースを集約し、利用可能な容量の統一されたビューを提供します。
* **ワークフローの標準化:** 複数のクラスタに一貫したポリシーと構成を適用します。
* **使用率の最適化:** クラスタ全体でワークロード分散のバランスをとり、リソース割り当てを最適化します。

ダッシュボードとレポート

Run:ai は、主要なメトリクスを視覚化し、ワークロードのパフォーマンスを追跡し、リソースの使用状況を把握するための強力なダッシュボードとレポート ツールを提供します。これらの機能には次のものが含まれます。
* **リアルタイム監視:** GPU 使用率、ワークロードの進行状況、リソースの使用状況をリアルタイムで追跡します。
* **履歴分析:** 履歴データを分析して傾向を特定し、リソース割り当てを最適化し、ワークロードのパフォーマンスを向上させます。
* **カスタマイズ可能なダッシュボード:** 特定のニーズや視点に合わせたカスタム ダッシュボードを作成します。

ワークロード管理

Run:ai は、以下を含む AI ワークロードの管理を簡素化します。
* **スケジュール:** トレーニングおよび推論ジョブのスケジュールと実行を自動化します。
* **優先順位付け:** ワークロードに優先順位を割り当てて、重要なタスクが最初に完了するようにします。
* **リソース割り当て:** ニーズと優先順位に基づいてワークロードにリソース (GPU、CPU、メモリ) を割り当てます。

リソース アクセス ポリシー

Run:ai は、ユーザーがクラスター リソースにアクセスして利用する方法を管理するルールを組織が定義および適用できるようにする、柔軟なリソース アクセス ポリシー エンジンを提供します。これにより、次のことが可能になります。
* **公平な割り当て:** リソースがユーザーとチーム間で公平に割り当てられるようにします。
* **割り当て管理:** リソースの使用量に制限を設定して、過剰消費を防ぎ、効率的な割り当てを確保します。
* **優先順位の適用:** ユーザーの役割またはワークロードの重要性に基づいて、リソースへのアクセスに優先順位を付けます。

ワークロード ポリシー

Run:ai は、ワークロード ポリシーの作成をサポートし、AI ワークロードを管理するためのルールとガイドラインを定義します。これにより、組織は次のことが可能になります。
* **ワークフローの標準化:** AI ワークロードを実行するための一貫したワークフローとベスト プラクティスを確立します。
* **タスクの自動化:** リソースの割り当てやスケジュール設定などの一般的なワークロード管理操作を自動化します。
* **セキュリティの向上:** ポリシーを適用して、セキュリティ標準および規制へのコンプライアンスを確保します。

認可とアクセス制御

Run:ai は、次のような堅牢な認可およびアクセス制御メカニズムを採用して、リソースとデータへのアクセスを保護します。
* **きめ細かい権限:* * ユーザーまたはグループに特定の権限を付与し、リソースへのアクセスをきめ細かく制御できます。
* **監査とログ:** ユーザーのアクションとアクセス パターンを追跡し、セキュリティとコンプライアンスの目的で監査証跡を提供します。
* **既存のセキュリティ ツールとの統合:** Run:ai を既存のセキュリティ システムと統合して、一元的な管理と制御を実現します。

AI ワークロード スケジューラ

Run:ai の AI ワークロード スケジューラは、AI ライフサイクル全体のリソース管理を最適化するように特別に設計されており、次のことが可能になります。
* **動的スケジューリング:* * 現在のニーズと優先順位に基づいてリソースをワークロードに動的に割り当てます。
* **GPU プーリング:** GPU リソースをプールに統合し、多様なワークロードに柔軟に割り当てることができます。
* **優先スケジューリング:** 重要なタスクにリソースが最初に割り当てられるようにして、AI クラスターの全体的なスループットを最適化します。

ノード プーリング

Run:ai はノード プーリングの概念を導入し、組織が異種 AI クラスターを簡単に管理できるようにします。 この機能は以下を提供します。
* **クラスター構成:** ノード プール レベルでクォータ、優先順位、およびポリシーを定義して、リソース割り当てを管理します。
* **リソース管理:** GPU の種類、メモリ、CPU コアなどの要素を考慮して、クラスタ内のリソースが公平かつ効率的に割り当てられるようにします。
* **ワークロード分散:** リソース要件に基づいて、ワークロードを適切なノード プールに割り当てます。

コンテナ オーケストレーション

Run:ai は、Kubernetes などのコンテナ オーケストレーション プラットフォームとシームレスに統合し、分散コンテナ化された AI ワークロードの導入と管理を可能にします。 これにより、次のことが実現します。
* **自動スケーリング:** 需要に基づいて AI ワークロードをシームレスにスケールアップまたはスケールダウンします。
* **高可用性:** 個々のノードに障害が発生した場合でも、AI ワークロードが利用可能な状態を維持できるようにします。
* **簡素化された展開:** コンテナ化されたイメージを使用して AI ワークロードを展開および管理し、移植性と再現性を促進します。

GPU フラクショニング

Run:ai の GPU フラクショニング テクノロジを使用すると、単一の GPU を複数の部分に分割でき、GPU の一部のみを必要とするワークロードをコスト効率よく実行できます。リソース。この機能:
* **コスト効率の向上:** GPU リソースを共有することで、同じインフラストラクチャ上でより多くのワークロードを実行できるようになります。
* **リソース管理の簡素化:** さまざまな要件を持つ多様なワークロードへの GPU リソースの割り当てを合理化します。
* **使用率の向上:** GPU の使用率を最大化し、アイドル時間を削減し、効率を向上させます。

GPU ノード

Run:ai は、NVIDIA、AMD、Intel などの主要ベンダーの幅広い GPU ノードをサポートしています。これにより、さまざまなハードウェア構成との互換性が確保され、組織は既存のインフラストラクチャを利用したり、特定のニーズに最適な GPU を選択したりできるようになります。

CPU ノード

GPU ノードに加えて、Run :ai は、GPU アクセラレーションを必要としないタスク用の CPU ノードもサポートします。これにより、組織は既存の CPU インフラストラクチャを活用したり、特定のタスクにコスト効率の高い CPU リソースを利用したりすることができます。

ストレージ

Run:ai は、NFS、GlusterFS、ceph などのさまざまなストレージ ソリューションと統合します。 、ローカルディスク。この柔軟性により、組織はパフォーマンス、拡張性、コストの要件に最適なストレージ ソリューションを選択できます。

ネットワーク

Run:ai は、高帯域幅のネットワークで効率的に動作するように設計されています。ノード間のデータの効率的な送信と分散型 AI ワークロードの実行を可能にします。 Run:ai は、インターネット接続がないエアギャップ環境にも導入でき、機密データのセキュリティと分離を確保します。

オンデマンドのノートブック

Run:ai のノートブックオンデマンド機能を使用すると、ユーザーは、Jupyter Notebook、PyCharm、VS Code などのお気に入りのツールやフレームワークを使用して、事前構成されたワークスペースを起動できます。
* **セットアップの簡素化:** 依存関係を手動でインストールすることなく、ワークスペースをすばやく起動します。
* **一貫性の確保:** チームやプロジェクト全体で一貫した環境を提供します。
* **コラボレーションの強化:** チーム メンバーとワークスペースをシームレスに共有し、共同作業します。

トレーニングと微調整

Run:ai は、AI モデルのトレーニングと微調整のプロセスを簡素化します。
* **バッチ ジョブをキューに入れる:** バッチをスケジュールして実行する単一のコマンドラインでジョブをトレーニングします。
* **分散トレーニング:** 複数の GPU にわたる大規模なデータセットでモデルを効果的にトレーニングします。
* **モデルの最適化:** パフォーマンスを向上させるためにトレーニング パラメーターとハイパーパラメーターを最適化します。

プライベート LLM

Run:ai を使用すると、ユーザーは特定のアプリケーションに使用できるカスタム トレーニングされたモデルである独自のプライベート LLM を展開して管理できます。 これにより、以下が可能になります。
* **モデルの展開:** 推論用に LLM モデルを展開し、パーソナライズされた応答を生成します。
* **モデル管理:** LLM モデルを保存、バージョン管理し、簡単にアクセスして更新できるようにします。
* **データ プライバシー:** ユーザー データの機密性を保ち、組織のインフラストラクチャ内で安全に保護します。

NVIDIA と Run:ai バンドル

Run:ai と NVIDIA は提携して、DGX システム向けの完全に統合されたソリューションを提供し、AI ワークロード向けに最もパフォーマンスの高いフルスタック ソリューションを提供します。このバンドル:
* **DGX パフォーマンスの最適化:** Run:ai の機能を活用して、DGX ハードウェアの使用率とパフォーマンスを最大化します。
* **管理の簡素化:** DGX リソースと AI ワークロードを管理するための単一プラットフォームを提供します。
* **AI 開発の加速:** 統合されたソリューションにより、組織が AI への取り組みを加速できるようにします。

独自のインフラストラクチャにデプロイします。雲。オンプレミス。エアギャップ。

Run:ai は幅広い導入環境をサポートし、さまざまなインフラストラクチャ要件を持つ組織に柔軟なオプションを提供します。 これには以下が含まれます。
* **クラウド デプロイ:** Run:ai を AWS、Azure、Google Cloud などの主要なクラウド プロバイダーにデプロイし、そのサービスとリソースを活用できるようにします。
* **オンプレミス展開:** Run:ai を独自のハードウェア インフラストラクチャに展開し、AI 環境を完全に制御します。
* **エアギャップ展開:** Run:ai をインターネット接続のない隔離された環境に展開し、データのセキュリティと整合性を確保します。

あらゆる ML ツールとフレームワーク

Run:ai は、次のような幅広い機械学習ツールやフレームワークと連携するように設計されています。
* **TensorFlow:** Run TensorFlow ワークロードを効果的に管理します。
* **PyTorch:** トレーニングと推論のために PyTorch モデルをデプロイおよび最適化します。
* **JAX:** 高性能 AI 計算に JAX を利用します。
* **Keras:** Keras モデルをシームレスに構築およびトレーニングします。
* **Scikit-learn:** Scikit-learn を機械学習タスクに利用します。
* **XGBoost:** 勾配ブースティング アルゴリズムに XGBoost を活用します。
* **LightGBM:** 効率的な勾配ブーストのために LightGBM を展開します。
* **CatBoost:** CatBoost を使用して、堅牢な勾配ブースティングを行います。

Any Kubernetes

Run:ai は、主要なコンテナ オーケストレーション プラットフォームである Kubernetes とシームレスに統合します。これにより、既存の Kubernetes 環境との互換性が確保され、組織は次のようなメリットを活用できるようになります。
* **自動スケーリング:** 需要に基づいて AI ワークロードを動的にスケーリングします。
* **高可用性:** 個々のノードに障害が発生した場合でも、AI ワークロードが利用可能な状態を維持できるようにします。
* **コンテナ化された展開:** AI ワークロードをコンテナとして展開し、移植性と再現性を促進します。

どこでも

Run:ai はどこにでも導入できるように設計されており、多様なインフラストラクチャ ニーズを持つ組織に柔軟性を提供します。これには次のものが含まれます。
* **データ センター:** Run:ai を独自のデータ センターに導入して、最大限の制御とセキュリティを実現します。
* **クラウド プロバイダー:** Run:ai を主要なクラウド プロバイダーに導入すると、拡張性と柔軟性が向上します。
* **エッジ デバイス:** リアルタイム AI アプリケーションのために、Run:ai をエッジ デバイスに展開します。

あらゆるインフラストラクチャ

Run:ai は幅広いインフラストラクチャ コンポーネントをサポートし、理想的な AI 環境を構築できます。
* **GPU:** 高性能を活用NVIDIA、AMD、Intel などの主要ベンダーの GPU。
* **CPU:** GPU アクセラレーションを必要としないタスクには CPU を使用します。
* **ASIC:** 機械学習推論などの特殊なタスクのために ASIC を統合します。
* **ストレージ:** パフォーマンス、拡張性、コストの要件に最適なストレージ ソリューションを選択してください。
* **ネットワーク:** Run:ai を高帯域幅ネットワークに展開して、効率的なデータ転送と分散ワークロードを実現します。

もっと見る

FAQ

Run:ai は、次のようなさまざまなインフラストラクチャをサポートしています。
// * **クラウド:** Run:ai は、AWS、Azure などの主要なクラウド プロバイダーにデプロイできます。 、および GCP。
// * **オンプレミス:** Run:ai はオンプレミスにも展開できるため、組織はデータとワークロードを自社のデータ センター内で安全に保つことができます。
// * **エアギャップ:** Run:ai は、インターネットに接続されていない環境であるエアギャップ環境にも展開できます。これにより、組織は厳格なセキュリティ要件がある環境に AI ワークロードを展開できるようになります。//

Run:ai は、次のようなさまざまな使用例に使用できます。< br>// * **機械学習モデルのトレーニングとデプロイ:** Run:ai を使用すると、機械学習モデルをより効率的かつ効果的にトレーニングおよびデプロイできます。//
// * **推論:** 実行: ai を使用すると、GPU で推論ワークロードを実行でき、AI アプリケーションのパフォーマンスの向上に役立ちます。//
// * **研究開発:** Run:ai は、研究開発の取り組みをサポートするために使用できます。 AI ワークロードの管理とデプロイのための強力なプラットフォームを提供することによって。//
// * **ディープ ラーニング:** Run:ai は、幅広い範囲で人気が高まっているディープ ラーニング モデルのトレーニングとデプロイに使用できます。 //

Run:ai を使い始めるには、Web サイト Run:ai にアクセスしてサインアップします。無料トライアル。また、Run:ai について詳しくは、ドキュメント Run:ai ドキュメント を読んだり、ソーシャル メディアでフォローしたりすることでご覧いただけます。
//
詳細については、弊社チーム [email protected] までお問い合わせください。喜んでご質問にお答えし、お客様のサポートをお手伝いいたします。 Run:ai で始まりました。//

ウェブサイトのトラフィック

データなし

代替製品