LLMを知ろう:Mistral AI



Mistral AIは、エンタープライズデプロイメント向けに構築されたフロンティアクラスの大規模言語モデルを提供しています。2023年にパリで設立された同社は、最先端のパフォーマンスと完全な透明性、デプロイメントの柔軟性を兼ね備えたオープンウェイトAIモデルの主要プロバイダーとして急速に台頭しています。

2025年12月にリリースされたMistral 3モデルファミリーは、同社の最も高性能な製品です。スパースMixture-of-Experts(MoE)アーキテクチャ、ネイティブマルチモーダル機能、本番環境対応の関数呼び出しを特徴としています。

本記事では、CData Connect AIとの統合に向けてMistral AIモデルを評価します。アーキテクチャ、API仕様、ツール使用機能、セキュリティ体制、エンタープライズデータ接続ワークフローにおけるデプロイメントの考慮事項を検証します。


モデルファミリーの概要

Mistral AIのポートフォリオは、エッジ最適化された小規模言語モデルからフロンティアスケールのMoEアーキテクチャまで多岐にわたります。Mistral 3ファミリーには、6,750億の総パラメータと410億のアクティブパラメータを持つスパースMoEモデルであるフラッグシップのMistral Large 3が含まれています。

このファミリーには、3B、8B、14BパラメータスケールのデンスモデルであるMinistral 3スイートも含まれています。すべてのモデルはApache 2.0ライセンスで提供され、無制限の商用デプロイメントとオンプレミスのカスタマイズが可能です。

アーキテクチャ分類

モデル アーキテクチャ パラメータ コンテキスト長 モダリティ
Mistral Large 3 スパースMoE 総675B / アクティブ41B 256Kトークン テキスト + ビジョン
Mistral Medium 3 デンスTransformer 約33B 128Kトークン テキスト
Ministral 14B デンスTransformer 14B 128Kトークン テキスト
Ministral 8B デンスTransformer 8B 128Kトークン テキスト
Ministral 3B デンスTransformer 3B 128Kトークン テキスト
Devstral 2 デンスTransformer 123B 256Kトークン テキスト + コード
Codestral デンスTransformer 22B 32Kトークン コード

出典:Mistral AI – Introducing Mistral 3

Mistral Large 3のMoEアーキテクチャは、トークンごとに関連するエキスパートサブネットワークのみをアクティブ化します。このスパースアクティベーションパターンにより、実用的な推論コストを維持しながらフロンティアレベルの能力を実現しています。

MistralはHBM3eメモリ最適化を使用した3,000台のNVIDIA H200 GPUでLarge 3をゼロからトレーニングしました。このモデルはLMArenaリーダーボードでオープンソースの非推論モデル中第2位にランクインしています。

主な強み

  • 多言語対応の優秀さ:英語、フランス語、スペイン語、ドイツ語、イタリア語、アラビア語、ロシア語、中国語、その他の言語でネイティブな流暢さを実現—米国を拠点とする競合他社と比較して優れた英語以外のパフォーマンス
  • コストパフォーマンス比Mistral Medium 3はClaude Sonnet 3.7の約90%の能力を8分の1のコスト(入力/出力100万トークンあたり$0.40/$2.00)で達成
  • オープンウェイトの利用可能性:Apache 2.0ライセンスにより、オンプレミスデプロイメント、カスタムファインチューニング、完全なモデルの透明性が可能
  • 関数呼び出しの成熟度:並列関数呼び出しをサポートする本番環境対応のツール使用フレームワーク

主な弱点

  • 推論の限界:専門的な推論と事実の精度タスクにおいて、Mistral Large 3はより特化したシステムに劣る場合がある。専用の推論バリアント(Magistral)は2025年6月にリリース
  • エコシステムの成熟度:OpenAIやAnthropicと比較して、開発者エコシステムが小規模でサードパーティ統合が少ない
  • ビジョン機能:Mistral Large 3は画像理解をサポートしているが、マルチモーダルパフォーマンスは専用のビジョン言語モデルに劣る

Mistral AIのプラットフォームと製品

Mistral AIは、モデルへのアクセスとデプロイメントのために複数のプラットフォームと製品を提供しています:

  • La Plateforme:チャット補完、埋め込み、関数呼び出しエンドポイントを含むすべてのモデルへのプログラムによるアクセスのためのMistralの主要APIプラットフォーム
  • Le Chat:CData Connect AIを通じてエンタープライズデータソースとの直接統合を可能にするネイティブMCPコネクタサポートを備えたMistralの対話型AIアシスタント
  • Mistral AIコンソール:APIキー管理、使用状況監視、請求のためのWebベースのダッシュボード
  • ファインチューニングAPI:独自のデータセットを使用したカスタムモデル適応のためのエンタープライズサービス
  • セルフホストデプロイメント:オンプレミスまたはプライベートクラウドデプロイメント用にHugging Faceで利用可能なオープンウェイトモデル
  • クラウドマーケットプレイス:Amazon SageMaker、Azure AI Foundry、Google Cloud Vertex AI、IBM WatsonX、NVIDIA NIMで利用可能

ドキュメントと技術仕様

Mistral AIはdocs.mistral.aiを通じて包括的なAPIドキュメントを提供し、help.mistral.aiで開発者向けヘルプセンターを運営しています。

プラットフォームドキュメントは、認証、エンドポイント仕様、本番デプロイメントのためのモデル固有のガイダンスをカバーしています。

API認証

Mistral APIはベアラートークン認証を使用します。APIキーはMistral AIコンソールで生成され、Authorizationヘッダーを介して渡されます:

curl https://api.mistral.ai/v1/chat/completions \
  -H "Authorization: Bearer $MISTRAL_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "mistral-large-latest",
    "messages": [{"role": "user", "content": "Query here"}]
  }'

レート制限とクォータ

Mistral AIはアカウントタイプとサブスクリプションレベルに基づいた階層型レート制限を実装しています。エンタープライズ顧客はカスタムクォータを交渉できます。標準API制限には、1分あたりのリクエスト数(RPM)と1分あたりのトークン数(TPM)の制約が含まれます。

レイテンシと推論特性

Mistral Large 3のMoEアーキテクチャは、同等のアクティブパラメータ数を持つデンスモデルと比較してオーバーヘッドを生じます。NVIDIA GB200 NVL72システムでは、このモデルはH200世代ハードウェアと比較して10倍のパフォーマンス向上を達成しています。

これは、ユーザーあたり毎秒40トークンで、メガワットあたり毎秒5,000,000トークンを超えることを意味します。レイテンシに敏感なアプリケーションでは、より小型のMinistralモデルがより高速な最初のトークンまでの時間を提供します。

サポートされるパラメータ

パラメータ 説明
temperature float (0.0-2.0) サンプリング温度。決定論的出力には0.0-0.7が推奨
top_p float (0.0-1.0) ニュークレアスサンプリング閾値。temperatureまたはtop_pのいずれかを使用(両方は使用しない)
max_tokens integer レスポンスの最大トークン数
random_seed integer リクエスト間で決定論的出力を得るためのシード
safe_prompt boolean コンテンツフィルタリングを有効化
response_format object JSON出力を保証するには{"type": "json_object"}に設定
tool_choice string/object ツール呼び出しを制御:noneautoany、または特定の関数
parallel_tool_calls boolean 並列関数実行を有効化

出典:Mistral AI APIドキュメント


セキュリティとコンプライアンスの考慮事項

Mistral AIのヨーロッパ本社とインフラストラクチャの配置は、データレジデンシー要件を持つ組織に明確な利点を提供します。

データ保持保証

Mistral AIのプライバシーポリシーによると:

  • 標準API:不正使用監視のため入出力を30日間ローリングで保持。ゼロデータ保持オプションも利用可能
  • Le Chat:ユーザーが削除するかアカウントを終了するまで会話を保持
  • エージェントAPI:アカウント終了までデータを保持
  • ファインチューニングAPI:明示的な削除まで学習データを保持

モデル分離と暗号化

Mistral AIは顧客ワークロード間でインフラストラクチャ分離を実装しています。転送中のデータはTLS 1.2+暗号化を使用します。オープンウェイトモデルを使用したセルフホストデプロイメントでは、組織は静止時と転送時の暗号化を完全に制御できます。

リージョン可用性

Mistral AIサービスは欧州連合内でのみホストされています。EU外で個人データを処理するすべてのサブプロセッサは、GDPR第46条に基づく標準契約条項に従って運営されています。

このEUネイティブインフラストラクチャにより、米国CLOUD Act管轄への露出なしに欧州データ保護要件への準拠が確保されます。

コンプライアンスフレームワーク

規制/基準 ステータス 備考
GDPR 準拠 EU本社、DPA利用可能
EU AI法 整合 規制準拠向けに設計
SOC 2 進行中 エンタープライズ顧客は現在のステータスを確認すべき
HIPAA セルフホスティング経由 オープンウェイトモデルにより準拠デプロイメントが可能

出典:Mistral AIプライバシーポリシーおよびデータ処理補遺

学習データのオプトアウト

Le Chat ProおよびLa Plateforme APIの顧客の場合、入力はデフォルトでモデルのトレーニングに使用されません。組織はアカウント設定または契約上の合意を通じて明示的にオプトアウトできます。


CData Connect AIとの統合パターン

Mistralモデルは関数呼び出しAPIを通じてCData Connect AIと統合されます。これにより、モデルは350以上のエンタープライズソースにわたるライブデータアクセスのための外部ツールを呼び出すことができます。

CData Connect AIはマネージドMCP(Model Context Protocol)コネクタを介してデータソースを公開します。MistralのLe ChatはネイティブMCP接続を標準でサポートしており、CData Connect AIのリモートMCPサーバーとの直接統合が可能です。他のMistral製品(La Plateforme APIやカスタムエージェントデプロイメントを含む)では、関数呼び出しフレームワークを使用した公式PythonおよびTypeScript SDKを通じてプログラムによる接続が利用可能です。

Le Chat直接統合(標準機能)

Mistral Le ChatはカスタムMCPコネクタの組み込みサポートを提供しています。以下の手順に従って、CData Connect AIを通じてLe Chatをエンタープライズデータソースに接続してください:

  1. CData Connect AIにログインし、ソースに移動して接続を追加をクリックします。データソースを選択し、必要な認証プロパティを設定します。保存してテストをクリックして接続を確認します。
  2. CData Connect AIで設定アクセストークンに移動し、PATを作成をクリックします。トークンにわかりやすい名前を付け、生成された個人アクセストークン(PAT)をすぐにコピーします。作成時にのみ表示されます。
  3. Le Chatにログインし、インテリジェンスコネクタに移動します。コネクタを追加をクリックし、カスタムMCPコネクタを選択します。
  4. 以下の詳細でコネクタを設定します:
    • コネクタ名:わかりやすい名前(例:CData_Connect_AI
    • コネクタサーバーhttps://mcp.cloud.cdata.com/mcp
    • 認証方法:APIトークン認証
    • ヘッダー名Authorization
    • ヘッダータイプ:Basic
    • ヘッダー値[email protected]:YourPAT(CData Connect AIのメールアドレスとPATに置き換えてください)
  5. 接続をクリックして接続を確立します。MCPコネクタが接続セクションに表示されることを確認します。
  6. Le Chatで新しいチャットを開始し、ツールを有効化をクリックしてMCPコネクタをアクティブ化します。Get CatalogsGet Tablesなどの検出クエリを実行して、利用可能なデータソースを探索します。

設定が完了すると、自然言語を使用してライブエンタープライズデータと対話的にやり取りできます。クエリの実行、レコードの取得、タスクの自動化が可能です。

ツール呼び出しフロー

統合は、MistralモデルがCData Connect AIが実行する関数呼び出しを生成するリクエスト-レスポンスパターンに従います:

  1. ユーザークエリ:エンタープライズデータを参照する自然言語リクエスト
  2. ツール選択:Mistralが利用可能なツールを評価し、適切なCData Connect AI関数を選択
  3. 関数呼び出し生成:モデルが関数名とパラメータを含む構造化JSONを出力
  4. リモート実行:CData Connect AIが設定されたデータソースに対してクエリを実行
  5. 結果処理:Mistralが表形式/SQL結果を受け取り、自然言語レスポンスを合成

プログラムによる関数呼び出し実装

La Plateforme APIおよびカスタムデプロイメントでは、Mistralの関数呼び出しはJSONスキーマ定義を使用して利用可能なツールを記述します。ツールはクエリパラメータ、スキーマ仕様、結果フォーマットで定義されます:

from mistralai import Mistral

client = Mistral(api_key="your-api-key")

tools = [
    {
        "type": "function",
        "function": {
            "name": "query_data",
            "description": "Execute SQL query against enterprise data source via CData Connect AI",
            "parameters": {
                "type": "object",
                "properties": {
                    "query": {
                        "type": "string",
                        "description": "SQL SELECT statement to execute"
                    },
                    "catalog": {
                        "type": "string",
                        "description": "Data source catalog name"
                    }
                },
                "required": ["query", "catalog"]
            }
        }
    }
]

response = client.chat.complete(
    model="mistral-large-latest",
    messages=[
        {"role": "system", "content": "You query enterprise data using CData Connect AI."},
        {"role": "user", "content": "Show me Q4 sales by region from Salesforce"}
    ],
    tools=tools,
    tool_choice="auto"
)

構造化出力の処理

Mistralモデルは構造化データレスポンスで強力なパフォーマンスを発揮します。CData Connect AIがSQL結果や表形式データを返すと、Mistralは列ヘッダー、データ型、行の値を解析して正確な要約を生成します。

response_formatパラメータをjson_objectタイプで設定すると、下流処理のための一貫した構造化出力が保証されます。

データワークフロー向けプロンプトエンジニアリング

CData Connect AIで最適なパフォーマンスを得るには、システムプロンプトに以下を含める必要があります:

  • 利用可能なデータソースカタログとそのスキーマ
  • SQL方言ガイダンス(CDataはブラケット引用識別子を使用したSQL-92を使用)
  • クエリ結果の期待される出力形式
  • 接続失敗や無効なクエリに対するエラー処理手順

エラー処理動作

CData Connect AIがエラー(接続タイムアウト、SQL構文エラー、権限拒否)を返すと、Mistralモデルは失敗を認識し、明確化を求めます。本番デプロイメントでは、リトライロジックとツール定義での明示的なエラースキーマを実装してください。


CData Connect AI互換性の評価基準

以下の評価マトリクスは、エンタープライズデータ接続統合の主要な基準に対してMistral AIモデルを評価します。

業界ベンチマークパフォーマンス

独立した評価により、標準AIベンチマーク全体でMistral Large 3の能力が確認されています。以下のスコアはLayerLens Atlasおよび業界リーダーボードからのサードパーティテストを反映しています:

ベンチマーク スコア カテゴリ
MATH-500 93.60% 数学的推論
HumanEval (Python) 90.24% コード生成
AGIEval English 74.00% 学術的推論
MMLU Pro 73.11% 知識と理解
GPQA Diamond 43.9% 大学院レベルの科学

これらの結果は、Mistral Large 3を強力な汎用モデルとして位置づけています。高いMATH-500およびHumanEvalスコアは、CData Connect AIワークフローで一般的なSQL生成およびデータ変換タスクにおける信頼性の高いパフォーマンスを示しています。

正確性とハルシネーション

Mistral Large 3はデータに基づくタスクで競争力のある正確性を示しています。明示的なスキーマコンテキストとサンプルデータが提供されると、列名やテーブル参照のハルシネーション率は低く抑えられます。

十分なコンテキストがない場合、モデルはもっともらしく聞こえるが存在しないフィールドを生成する可能性があります。システムプロンプトでの包括的なスキーマドキュメントにより、このリスクを軽減できます。

会話状態管理

マルチステップワークフロー(接続 → スキーマ検出 → クエリ → 変換 → 要約)では、Mistralモデルはターン間で一貫した状態を維持します。Mistral Large 3の256Kコンテキストウィンドウは、広範な会話履歴と大規模なスキーマ定義に対応します。

ツールチェーンの決定論性

random_seedを指定し、temperatureを0に設定すると、Mistralモデルは高度に決定論的なツール呼び出しシーケンスを生成します。この再現性は、一貫した動作を必要とする本番ワークフローに不可欠です。

LMArenaリーダーボード順位

LMArenaリーダーボードは、ブラインドの一対一比較を通じてLLMをランク付けするためにクラウドソースによる人間評価を使用しています。2025年12月時点で、Mistral Large 3は以下の順位を保持しています:

指標 結果 出典
Eloレーティング 約1418 Mistral AI
オープンソース非推論ランク #2 Mistral AI
全体オープンウェイトランク #6 Mistral AI
オープンソースコーディングランク #1 DataCamp

オープンソースコーディングタスクでの第1位は、エンタープライズデータ接続に特に関連性があります。強力なコード生成能力は、CData Connect AIの350以上のデータソースコネクタとのインターフェース時の正確なSQLクエリ構築に直接反映されます。


Connect AIに対するベンチマークタスク

以下のベンチマークシナリオは、CData Connect AIワークフローでのMistralモデルのパフォーマンスを評価します。

マルチステップ統合テスト

ワークフロー:接続 → スキーマ検出 → クエリ → 変換 → 要約

Test Prompt: "Connect to our Salesforce instance, list available tables,
query the Opportunity table for Q4 2024 closed-won deals over $50,000,
calculate total revenue by account, and provide a summary report."

Expected Tool Chain:
1. getCatalogs() - Discover available connections
2. getTables(catalog="Salesforce") - List available objects
3. getColumns(table="Opportunity") - Understand schema
4. queryData(query="SELECT Account.Name, SUM(Amount)...") - Execute query
5. Natural language synthesis of results

Mistral Large 3 Result: Successfully completed all steps with appropriate
tool selection and accurate SQL generation. Minor guidance needed for
bracket-quoted identifier syntax.

長いSQL生成ストレステスト

複数のJOIN、サブクエリ、集計を含む複雑なクエリは、CDataのSQL-92方言に対して有効なSQLを生成するモデルの能力をテストします。Mistral Large 3は約2,000トークンまでのクエリを確実に処理できます。

自律チェーン機能

明示的なステップの内訳なしで高レベルの目標が与えられた場合、Mistral Large 3は強力な自律的推論を示します。モデルはクエリ実行前に検出操作を適切に順序付け、反復的な改善を処理します。


ユーザビリティの調査結果

プロンプト感度

Mistralモデルはデータワークフローに対して中程度のプロンプト感度を示します。明示的なスキーマコンテキストにより出力品質が大幅に向上します。モデルは期待されるSQLパターンを示すフューショットの例によく応答します。

エンタープライズSaaS用語

一般的なエンタープライズ概念(CRMオブジェクト、ERPモジュール、データウェアハウス用語)の強力なネイティブ理解。多言語トレーニングにより、ヨーロッパ言語全体でビジネス用語の優れたカバレッジを提供します。

CDataソースへの適応性

Mistralモデルは、CData Connect AIの多様なソースポートフォリオに効果的に適応します。ソース固有のメタデータが提供されると、モデルはコンテキストを適切にレスポンスに組み込みます。

システムプロンプトの再利用性

CData Connect AIワークフローは標準化されたシステムプロンプトの恩恵を受けます。Mistralモデルはシステムレベルの指示を一貫して尊重し、一般的なデータアクセスパターンのテンプレートベースのデプロイメントを可能にします。


業界ユースケース

Mistral AIは複数の業界バーティカルにわたる本番デプロイメントを支えています。以下の例は、CData Connect AI統合に関連する実用的な実装を示しています。

金融サービス

主要な金融機関は、財務分析、多言語翻訳、リスク特定ワークフローにMistralモデルを導入しています。

:HSBCはMistral AIを使用して、複雑な融資プロセスの財務分析を強化し、多言語翻訳サービスを提供し、調達チームがグローバルオペレーション全体でリスクと節約機会を特定するのを支援しています。

海運・物流

グローバル物流企業は、Mistral搭載のアシスタントを活用してカスタマーサービスを自動化し、大規模な運用を最適化しています。

:CMA CGMは、毎週100万件のメールにわたるカスタマーサービスを処理し、160カ国の155,000人以上の従業員の船舶スケジューリングをサポートするMAIAという、Mistral搭載の社内AIアシスタントを導入しています。

ヘルスケア

医療機関は、エビデンスに基づく臨床意思決定支援を提供し、製薬業務を効率化するためにMistralモデルを使用しています。

:Synapse MedicineはMistralモデルを活用してエビデンスに基づく医療推奨を提供し、300以上の病院に臨床意思決定支援を提供しています。

政府

公共部門機関は、市民サービスを改善し、業務効率を高めるためにMistral搭載のAIアシスタントを実装しています。

:France TravailはMistral AIを使用して、求職者が雇用サービスをナビゲートし、AI搭載の支援を通じて候補者と機会をマッチングするのを支援しています。

テクノロジー

テクノロジー企業は、Mistral搭載のコーディングアシスタントと開発ツールを使用してソフトウェアエンジニアリングの提供を加速しています。

:Capgeminiは、開発チーム全体でソフトウェアエンジニアリングの提供を加速するために、コード生成、レビュー、ドキュメント作成にMistral AIを導入しています。

エネルギー

エネルギー企業は、エネルギー転換イニシアチブのための運用効率ワークフローと持続可能性レポートにMistralモデルを適用しています。

:TotalEnergiesは、運用効率と持続可能性ワークフローを通じてエネルギー転換イニシアチブを加速するためにMistral AIと協力しています。

業界別CData Connect AI統合パターン

業界 主要データソース 一般的なユースケース
金融サービス Salesforce、SAP、Bloomberg、社内データベース クライアントポートフォリオ分析、リスク評価、コンプライアンスレポート
物流 SAP、Oracle、カスタムERP、IoTプラットフォーム 出荷追跡、ルート最適化、在庫クエリ
ヘルスケア Epic、Cerner、カスタム臨床システム 患者データ取得、臨床意思決定支援、運用分析
政府 レガシーデータベース、市民サービスプラットフォーム 市民データアクセス、ケース管理、サービス提供
エネルギー SCADA、PI Historian、資産管理システム 運用監視、予知保全、持続可能性レポート

出典:Mistral AIソリューション


最終推奨サマリー

理想的なユースケース

  • ヨーロッパ企業:EUデータレジデンシーを備えたGDPR準拠のデータ接続
  • 多言語組織:グローバルチーム向けの優れた英語以外の言語サポート
  • コスト重視のデプロイメント:Mistral Medium 3は日常的なクエリに優れたコストパフォーマンスを提供
  • オンプレミス要件:オープンウェイトモデルによりCData Connect AIとのセルフホストデプロイメントが可能
  • カスタムファインチューニング:Apache 2.0ライセンスによりドメイン固有のモデル適応が許可

制限事項と緩和策

Mistral AIは公式モデルカードで以下の制限事項を文書化しています:

制限事項 影響 緩和策
専用推論モデルではない 専用推論モデルは厳密な推論ユースケースで優れたパフォーマンスを発揮する可能性がある 複雑なリクエストをより簡単なサブタスクに分割。Magistral推論バリアントを検討
ビジョンファーストモデルに劣る ビジョンタスクに最適化されたモデルに遅れをとる可能性がある 上流で専門的なドキュメント処理ツールを使用。画像を1:1アスペクト比にクロップ
複雑なデプロイメント リソースが制約された環境での効率的なデプロイメントが困難 Le ChatやMistral APIなどのクラウドホストオプションを使用。NVFP4量子化を活用

CData Connect AIワークフローでは、クラウドホストのLe Chat統合によりデプロイメントの複雑さを完全にバイパスできます。MCPコネクタはMistralのマネージドインフラストラクチャを通じてモデルアクセスを処理します。

総合有効性スコア

基準 スコア
CData Connect AI互換性 4.5/5
エンタープライズ対応度 4.5/5
セキュリティ/コンプライアンス 4.8/5
コスト効率 4.5/5
総合 4.5/5 – 強く推奨

出典:CDataの内部評価に基づく

デプロイメントガイダンス

Mistral Large 3を選択する場合:最大能力が必要、複雑なマルチソースクエリ、ビジョン/マルチモーダルニーズ、拡張コンテキスト要件(256Kトークン)。

Mistral Medium 3を選択する場合:コスト最適化が優先、標準的な複雑さのクエリ、予測可能なパターンの本番ワークロード。

Ministralモデルを選択する場合:エッジデプロイメント、低レイテンシ要件、リソース制約のある環境、大量のシンプルなクエリ。

セルフホストデプロイメントを選択する場合:厳格なデータレジデンシー要件、エアギャップ環境、カスタムファインチューニングのニーズ、クラウドAPI使用を禁止する規制要件。


CData + Mistral = AIを活用したエンタープライズデータアクセス

Mistral AIとエンタープライズデータの完全な可能性を引き出す準備はできましたか?CData Connect AIは350以上のデータソースへのマネージドMCP接続を提供し、データエコシステム全体にわたる自然言語クエリを可能にします。Mistral Le Chatとの標準統合とLa Plateforme APIのプログラムサポートを備えています。

今すぐCData Connect AIの無料トライアルを開始して、シームレスなAI搭載データアクセスを体験してください。

または、ガイド付きデモをご覧ください。CData Connect AIがデータワークフローをどのように変革するかをご確認いただけます。