より多くの開発者が参加し、協力し、エッジアプリケーションを改善することを促進するために、Tencent EdgeOneは、開発者向けのオープン技術共創プラットフォーム「Open Edge」を作成しました。私たちは、世界中でエッジノードの機能をさらに開放し、次世代のサーバーレスアプリケーションを共に探求し構築できるようにします。また、さまざまなアプリケーション選択肢を提供し、開発者が新しい世代のエッジサーバーレスアプリケーションを共同で探求し構築することを支援・促進する即時利用可能な体験も提供します。
Open Edgeアーキテクチャは、エッジコンピューティングアプリケーションに取り組む開発者にシームレスな体験を提供するように設計されています。これは、サーバーレスアプリケーションレイヤー、エッジコンポーネントレイヤー、およびコンピューティングレイヤーの3つの主要な層で構成されています。それぞれの層は、エッジアプリケーションの効率的な実装と運用を確保する上で重要な役割を果たします。
軽量アプリケーションに焦点を当てたサーバーレスアプリケーションレイヤーは、メンテナンスフリーで即時利用可能な体験を開発者に提供します。現在、AIゲートウェイアプリケーションを無料で提供しており、開発者が大規模言語モデル(LLM)へのアクセスを管理し制御するのを助けます。ポスタージェネレーション、リアルタイムトランスコーディング、テキストから画像への変換などの追加アプリケーションも開発中で、近日中に利用可能となる予定です。
エッジコンポーネントレイヤーは、エッジアプリケーションの実装に不可欠なコアコンポーネントで構成されています。これらのコンポーネントには、エッジファンクション、エッジキャッシュ、エッジKV、エッジCOS、およびエッジAIが含まれています。これらのビルディングブロックにより、開発者はネットワークのエッジでデータを効率的に処理・管理できる堅牢で高性能なアプリケーションを作成できます。
エッジコンピューティングレイヤーは、エッジアプリケーションの実装に必要なコンピューティングパワーを提供します。これには、CPUやGPUなどの異種リソースが含まれており、アプリケーションがリアルタイムでデータを効率的に処理・分析できることを保証します。この層は、IoT、AI、リアルタイム分析などの多くのユースケースにおいて、エッジアプリケーションが低遅延で高性能な結果を提供できるようにする上で重要な役割を果たします。
Open Edgeの主な利点は以下の通りです:
Open Edgeに参加することで、以下の利点を享受できます:
Open Edgeに参加し、技術を使って世界を変えることを期待しています!
Tencent EdgeOne AIゲートウェイは、大規模言語モデル(LLM)サービスプロバイダーへのアクセスに対するセキュリティ、可視性、およびリクエスト動作制御管理を提供します。現在、AIゲートウェイは開発者が無料トライアルを申請できる状態です。
AIゲートウェイは、キャッシュ構成機能をサポートしており、開発中の機能には、レート制限、リクエストの再試行、LLMモデルのフォールバック、および仮想キーが含まれています。これらの機能の組み合わせにより、LLMサービスプロバイダーへのアクセスのセキュリティと安定性を効果的に確保し、アクセスコストを削減します。
注意:これは現在ベータ版であり、本番環境での使用は推奨しません。ビジネスリスクを慎重に考慮した上で、本番ビジネスでの使用を希望される場合はご注意ください。
注意:上記のすべての機能が現在利用可能なわけではありません。特定の機能に特に興味がある場合は、製品チームにフィードバックを提供してください。
Open AI、Minimax、Moonshot AI、Gemini AIなどの主要モデルサービスプロバイダーのサポートが既に利用可能で、さらに多くのプロバイダーが開発中です。
Open Edgeにアクセスするには、Tencent EdgeOne Consoleに移動し、左側のサイドバーでOpen Edgeをクリックします。以前にアクセスを申請していない場合は、「今すぐ有効化」をクリックして使用権限を要求する必要があります。
注意:現在、限られたユーザーテストをバッチで実施しているため、今回の申請が承認されなかった場合は、辛抱強くさらなる更新をお待ちください。ご理解いただきありがとうございます。
有効化に成功した後、AIゲートウェイリストページに移動し、「作成」をクリックします。ポップアップの指示に従って、名前と説明を入力します。
AIゲートウェイを正常に作成した後、AIゲートウェイリストページに移動し、「詳細」または特定のAIゲートウェイインスタンスIDをクリックしてゲートウェイの詳細ページに入ります。現在、キャッシュ構成がサポートされています。
AIゲートウェイバックエンドの対応エンドポイントは、大規模言語モデル(LLM)サービスプロバイダーです。現在、Open AI、Minimax、Moonshot AI、Gemini AIなどの主要モデルサービスプロバイダーがサポートされています。
例を参照し、Bearのxxxxxxxxxxxxxxxxxxxxxxxxをサービスプロバイダーのアクセスキー(例えばOpen AIのエンドポイント)に置き換えることができます。
操作シナリオ:AIゲートウェイでキャッシュを無効にし、AIゲートウェイを介してOpen AIにアクセスします。
AIゲートウェイでキャッシュを有効にし、再度アクセスします。
レスポンスヘッダーOE-Cache-StatusがHITを返す場合、キャッシュがヒットしたことを示します。
他のLLMサービスプロバイダーにAIゲートウェイを介してアクセスするには、上記の手順に従ってください。
はい、AIゲートウェイは現在、開発者が無料トライアルを申請できる状態です。
AIゲートウェイは、大規模言語モデル(LLM)へのアクセスの管理と制御を可能にし、現在OpenAI、Minimax、Moonshot AI、Gemini AIなどの主要モデルサービスプロバイダーをサポートしています。
現在のLLMサービスプロバイダーが要件を満たさない場合は、ぜひお問い合わせください評価を依頼してください。