GitHub Copilot × CData Code Assist MCP for Apache Hive で Hive のリアルタイムデータを活用する方法

Mohsin Turki
Mohsin Turki
Technical Marketing Engineer
CData Code Assist MCP for Apache Hive を使って、GitHub Copilot から Hive のリアルタイム のデータにアクセスし、Hive を活用したアプリケーション開発を効率化する方法を解説します。

GitHub Copilot は、Visual Studio Code をはじめとする IDE に統合された AI コーディングアシスタントです。MCP に対応しているため、ローカルツールやエンタープライズデータソースに接続し、開発中にリアルタイムデータを自然言語で操作できます。

Model Context Protocol(MCP) は、LLM クライアントを外部サービスに接続するためのオープンスタンダードです。MCP サーバーはスキーマの探索やリアルタイムクエリなどの機能を提供し、AI エージェントがリアルタイムデータに安全かつ一貫した方法でアクセスできるようにします。

この記事では、CData Code Assist MCP for Apache Hive のインストールから Hive への接続設定、Code Assist MCP アドオンと GitHub Copilot の連携、さらに Visual Studio Code から Hive のデータ をクエリする方法まで、ステップバイステップで解説します。

前提条件

ステップ1:CData Code Assist MCP for Apache Hive のダウンロードとインストール


  1. まずは CData Code Assist MCP for Apache Hive をダウンロードします。
  2. ダウンロードしたインストーラーをダブルクリックして実行します。
  3. 画面の指示に従ってインストールを完了させます。

インストールが完了したら、Hive への接続設定に進みましょう。

ステップ2:Hive への接続を設定


  1. インストールが完了すると、CData Code Assist MCP for Apache Hive の設定ウィザードが起動します。

    注意:ウィザードが自動的に起動しない場合は、Windows の検索バーで「CData Code Assist MCP for Apache Hive」と入力し、アプリケーションを起動してください。

  2. MCP Configuration > Configuration Name で、既存の構成を選択するか、 を選択して新しい構成を作成します。
  3. 構成名を入力(例:「cdata_apachehive」)し、OK をクリックします。
  4. 設定ウィザードで適切な接続プロパティを入力します。

    Apache Hive への接続を確立するには以下を指定します。

    • Server:HiveServer2 をホストするサーバーのホスト名またはIP アドレスに設定。
    • Port:HiveServer2 インスタンスへの接続用のポートに設定。
    • TransportMode:Hive サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
    • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。
    • CData 製品においてTLS/SSL を有効化するには、UseSSL をTrue に設定します
  5. Connect をクリックして、Hive に認証します。
  6. Save & Test をクリックして接続を確定します。

この操作により、GitHub Copilot が Code Assist MCP アドオンを起動する際に参照する .mcp 構成ファイルが作成されます。続いて、Code Assist MCP アドオンを GitHub Copilot に接続しましょう。

ステップ3:Code Assist MCP アドオンを GitHub Copilot に接続


  1. Visual Studio Code をダウンロード・インストールし、GitHub Copilot Chat 拡張機能を有効にします。
  2. 方法1:MCP 構成を手動で追加する

    1. mcp.json ファイルを開くか新規作成します。
      • グローバル設定の場合:%%APPDATA%%/Roaming/Code/User/mcp.json
      • プロジェクト固有の設定の場合:/.vscode/mcp.json
    2. 以下の JSON コードを追加してファイルを保存します。
    3. {
        "servers": {
          "cdata_apachehive": {
            "command": "C:\Program Files\CData\CData Code Assist MCP for Apache Hive\jre\bin\java.exe",
            "args": [
              "-Dfile.encoding=UTF-8",
              "-jar",
              "C:\Program Files\CData\CData Code Assist MCP for Apache Hive\lib\cdata.mcp.apachehive.jar",
              "cdata_apachehive"
            ]
          }
        }
      }
      

      注意:command の値には Java 17+ の java.exe 実行ファイルへのパスを、JAR パスには CData Code Assist MCP アドオンの .jar ファイルへのパスを指定してください。最後の引数は、CData 設定ウィザードで保存した MCP 構成名(例:「cdata_apachehive」)と一致させる必要があります。

    方法2:CData Code Assist MCP for Apache Hive の UI から MCP 構成をコピーする

    1. 設定ウィザードで接続の保存とテストが完了したら、Next をクリックします。
    2. AI MCP Tool ドロップダウンから Github Copilot を選択します。
    3. MCP Client Instructions に従って、必要な構成ファイルを作成します。
    4. 表示された JSON コードをコピーして、構成ファイルに貼り付けます。

ステップ4:GitHub Copilot からリアルタイム Hive のデータ をクエリ


  1. Visual Studio Code を起動し、GitHub Copilot Chat インターフェースを開きます。ツールアイコンを選択して、設定済みの Code Assist MCP アドオンを有効にします。
  2. 自然言語で Hive のデータ について質問してみましょう。例:

    "List all tables available in my Hive のデータ data connection."

  3. 自然言語プロンプトを使って開発を進めることもできます:
    For my project, data from the Customers is very important. Pull data from the most important columns like City and CompanyName.
    

これで GitHub Copilot と CData Code Assist MCP for Apache Hive の連携は完了です。MCP ツールを使用して、スキーマの探索や Hive に対するリアルタイムクエリを実行できます。


Code Assist MCP で構築。CData Drivers で本番運用。

Code Assist MCP を無料でダウンロードして、開発中にライブの Hive のデータ へのスキーマ対応アクセスを AI ツールに提供しましょう。本番環境に移行する際は、CData Hive Drivers が同じ SQL ベースのアクセスをエンタープライズグレードのパフォーマンス、セキュリティ、信頼性で提供します。

CData コミュニティにアクセスして、インサイトの共有や質問、MCP を活用した AI ワークフローの可能性を探索しましょう。

はじめる準備はできましたか?

Apache Hive Code Assist MCP の無料トライアルをダウンロード:

 ダウンロード

詳細:

Apache Hadoop Hive Icon Apache Hive Code Assist MCP お問い合わせ

The CData Code Assist MCP for Apache Hadoop Hive provides schema-aware context for AI-assisted code generation with live Apache Hadoop Hive data.