LangGraph と Amazon Athena のデータを CData Connect AI で統合

Dibyendu Datta
Dibyendu Datta
Lead Technology Evangelist
CData Connect AI を活用して、LangGraph エージェントが自動化ワークフロー内でAmazon Athena のデータにセキュアにアクセスし、操作できるようにします。

LangGraph は、推論モデル(LLM)、ツール統合、データ操作を組み合わせたインテリジェントなグラフベースの AI ワークフローを構築・可視化するためのフレームワークです。CData Connect AI と統合することで、エージェントは標準化されたツールセットを通じてエンタープライズデータにリアルタイムでセキュアにアクセス、クエリ、操作できるようになります。

CData Connect AI は、Amazon Athena などのデータソースを Model Context Protocol(MCP)を通じて公開できるマネージド MCP プラットフォームです。これにより、AI エージェントは複雑な ETL やカスタム統合なしに、350 以上のデータソースのメタデータ、カタログ、テーブル、SQL 対応のデータアクセスを操作できます。

この記事では、LangGraph で MCP エンドポイントを登録し、CData Connect AI を通じてデータソース接続を設定し、リアルタイムデータ(例:Amazon Athena オブジェクト)をオンデマンドでクエリ・可視化するワークフローを構築する方法を説明します。また、組み込みの MCP ツールセット(getCatalogsgetSchemasgetTablesqueryData など)を使用して、自然言語エージェントがエンタープライズデータとセキュアかつインタラクティブに対話できるようにする方法を示します。

Amazon Athena データ連携について

CData は、Amazon Athena のライブデータにアクセスし、統合するための最も簡単な方法を提供します。お客様は CData の接続機能を以下の目的で使用しています:

  • IAM 認証情報、アクセスキー、インスタンスプロファイルなど、さまざまな方法で安全に認証できます。多様なセキュリティニーズに対応し、認証プロセスを簡素化します。
  • 詳細なエラーメッセージにより、セットアップを効率化し、問題を迅速に解決できます。
  • サーバーサイドでのクエリ実行により、パフォーマンスを向上させ、クライアントリソースへの負荷を最小限に抑えます。

ユーザーは、Tableau、Power BI、Excel などの分析ツールと Athena を統合し、お気に入りのツールから詳細な分析を行うことができます。

CData を使用した Amazon Athena のユニークなユースケースについては、ブログ記事をご覧ください:https://jp.cdata.com/blog/amazon-athena-use-cases


はじめに


前提条件

ステップ1:LangGraph 用の Amazon Athena 接続を設定

LangGraph が Amazon Athena にアクセスする前に、CData Connect AI で Amazon Athena 接続を作成する必要があります。この接続はリモート MCP サーバーを通じて LangGraph に公開されます。

  1. Connect AI にログインして「Sources」をクリック、次に「+ Add Connection」をクリック
  2. 利用可能なデータソースから「Amazon Athena」を選択
  3. Amazon Athena に接続するために必要な認証プロパティを入力します。

    Amazon Athena 接続プロパティの取得・設定方法

    それでは、早速Athena に接続していきましょう。

    データに接続するには、以下の接続パラメータを指定します。

    • DataSource:接続するAmazon Athena データソース。
    • Database:接続するAmazon Athena データベース。
    • AWSRegion:Amazon Athena データがホストされているリージョン。
    • S3StagingDirectory:クエリの結果を保存するS3 フォルダ。

    Database またはDataSource が設定されていない場合、CData 製品はAmazon Athena の利用可能なデータソースからすべてのデータベースのリスト化を試みます。そのため、両方のプロパティを設定することでCData 製品のパフォーマンスが向上します。

    Amazon Athena の認証設定

    CData 製品は幅広い認証オプションに対応しています。詳しくはヘルプドキュメントの「はじめに」を参照してみてください。

    AWS キーを取得

    IAM ユーザーの認証情報を取得するには、以下のステップお試しください。

    1. IAM コンソールにサインインします。
    2. ナビゲーションペインでユーザーを選択します。
    3. ユーザーのアクセスキーを作成または管理するには、ユーザーを選択してからセキュリティ認証情報タブに移動します。

    AWS ルートアカウントの資格情報を取得するには、以下のステップをお試しください。

    1. ルートアカウントの認証情報を使用してAWS 管理コンソールにサインインします。
    2. アカウント名または番号を選択します。
    3. 表示されたメニューでMy Security Credentials を選択します。
    4. ルートアカウントのアクセスキーを管理または作成するには、Continue to Security Credentials をクリックし、[Access Keys]セクションを展開します。

    その他の認証オプションについては、ヘルプドキュメントの「Amazon Athena への認証」を参照してください。

  4. 「Save & Test」をクリック
  5. 認証後、Amazon Athena 接続の「Permissions」タブを開き、必要に応じてユーザーベースの権限を設定します

パーソナルアクセストークン(PAT)を生成

LangGraph はアカウントのメールアドレスとパーソナルアクセストークン(PAT)を使用して Connect AI に認証します。きめ細かなアクセス制御を維持するため、統合ごとに個別の PAT を作成することをお勧めします。

  1. Connect AI で、右上の「歯車アイコン」を選択して「Settings」を開きます
  2. Access Tokens」で「Create PAT」を選択します
  3. トークンにわかりやすい名前を付けて「Create」を選択します
  4. トークンをコピーして安全に保管します。PAT は作成時にのみ表示されます

Amazon Athena 接続が設定され PAT が生成されたので、LangGraph は CData MCP サーバーを通じてAmazon Athena のデータに接続する準備が整いました。

ステップ2:開発環境をセットアップ

LangGraph と CData Connect AI を接続し、OpenAI LLM を推論に使用するためのプロジェクトディレクトリをセットアップし、必要な依存関係をインストールします。このセットアップにより、LangGraph は Connect AI が公開する Amazon Athena MCP サーバーツールを呼び出し、OpenAI が自然言語推論を処理できるようになります。

  1. LangGraph プロジェクト用の新しいフォルダを作成します:
    mkdir LangGraph cd LangGraph
  2. 必要な Python パッケージをインストールします:
    pip install langgraph langchain-openai langchain-mcp-adapters python-dotenv "langgraph-cli[inmem]"
  3. Python 3.10 以上と有効な OpenAI API キーが環境に設定されていることを確認します。

ステップ3:MCP 接続の環境変数を設定

LangGraph は環境変数を使用して CData Connect AI に接続し、API 認証情報と設定を定義します。これらの認証情報を .env ファイルに保存して、セキュアで再利用可能にします。LangGraph は実行時にこのファイルを自動的に読み込むため、スクリプトは機密情報をハードコードすることなく MCP サーバーに認証・通信できます。

  1. プロジェクトディレクトリに .env という新しいファイルを作成します。
  2. 以下の環境変数を追加して、LangGraph、CData Connect AI、OpenAI の設定を定義します:
    # LangSmith(オプション)
    LANGSMITH_API_KEY=lsv2_pt_xxxx   #LangSmith API Key
    LANGCHAIN_TRACING_V2=true
    LANGCHAIN_PROJECT=LangGraph-Demo
    
    # MCP 設定
    MCP_BASE_URL=https://mcp.cloud.cdata.com/mcp   #MCP サーバー URL
    MCP_AUTH=base64encoded(EMAIL:PAT)   #Base64 エンコードされた Connect AI Email:PAT
    OPENAI_API_KEY=sk-proj-xxxx
    
  3. ファイルを保存します。LangGraph はこれらの値を使用して CData Connect AI の Amazon Athena MCP サーバーに認証し、Amazon Athena のデータに接続し、推論用に OpenAI モデルを初期化します。

注意: Base64 エンコードされた認証文字列は、Base64 エンコードツールなどのオンライン Base64 エンコーダーを使用して生成できます。前提条件で取得した CData Connect AI のユーザー名と PAT をエンコードしてください。

ステップ4:LangGraph エージェントスクリプトを作成

このステップでは、LangGraph を CData Connect AI MCP サーバーに接続する Python スクリプトを作成します。スクリプトは getCatalogsgetSchemasqueryData などの利用可能な MCP ツールを取得し、LangGraph ワークフローを構築し、接続されたAmazon Athena のデータに対して自然言語プロンプトを実行します。

ワークフローは MCP を使用して Connect AI からリアルタイムのAmazon Athena のデータをセキュアに取得し、OpenAI GPT-4o を使用してそのデータを解釈・推論します。 また、後で LangGraph Studio で可視化できるようにグラフを公開します。

ファイルを作成

LangGraph プロジェクトフォルダ内に test.py という新しい Python ファイルを作成します。

以下のコードを追加

test.py に以下のスクリプトを使用します:

import asyncio
import os
import operator
from typing_extensions import TypedDict, Annotated
from dotenv import load_dotenv

from langgraph.graph import StateGraph, START, END
from langchain.agents import create_agent
from langchain_mcp_adapters.client import MultiServerMCPClient
from langchain_openai import ChatOpenAI
from langchain_core.messages import BaseMessage, HumanMessage

# Load environment variables
load_dotenv()

# Define the agent state
class AgentState(TypedDict):
    messages: Annotated[list[BaseMessage], operator.add]

# Define the async agent logic
async def run_agent(user_prompt: str) -> str:
    MCP_BASE_URL = os.getenv("MCP_BASE_URL")
    MCP_AUTH = os.getenv("MCP_AUTH")
    OPENAI_API_KEY = os.getenv("OPENAI_API_KEY")

    print("Connecting to the MCP server...")
    mcp_client = MultiServerMCPClient(
        connections={
            "default": {
                "transport": "streamable_http",
                "url": MCP_BASE_URL,
                "headers": {"Authorization": f"Basic {MCP_AUTH}"} if MCP_AUTH else {},
            }
        }
    )

    print("Loading available MCP tools...")
    all_mcp_tools = await mcp_client.get_tools()
    print(f"Loaded tools: {[tool.name for tool in all_mcp_tools]}")

    # Initialize the LLM
    llm = ChatOpenAI(model="gpt-4o", temperature=0.2, api_key=OPENAI_API_KEY)

    print("Creating the LangGraph agent...")
    agent = create_agent(
        model=llm,
        tools=all_mcp_tools,
        system_prompt="You are a helpful assistant. Use tools when needed."
    )

    # Build the workflow graph
    builder = StateGraph(AgentState)
    builder.add_node("agent", agent)
    builder.add_edge(START, "agent")
    builder.add_edge("agent", END)
    graph_instance = builder.compile()

    print(f"Processing user query: {user_prompt}\n")
    initial_state = {"messages": [HumanMessage(content=user_prompt)]}
    result = await graph_instance.ainvoke(initial_state)
    print(f"Agent Response:\n{result['messages'][-1].content}")

# Expose the graph for visualization
builder = StateGraph(AgentState)
builder.add_node(
    "agent",
    create_agent(
        model=ChatOpenAI(model="gpt-4o", temperature=0.2, api_key=os.getenv("OPENAI_API_KEY")),
        tools=[],
        system_prompt="You are a helpful assistant."
    )
)
builder.add_edge(START, "agent")
builder.add_edge("agent", END)
graph = builder.compile()

if __name__ == "__main__":
    import argparse
    parser = argparse.ArgumentParser()
    parser.add_argument("--serve", action="store_true", help="Run visualization server")
    args = parser.parse_args()

    if args.serve:
        print("To visualize the graph, run:")
        print("langgraph dev")
    else:
        asyncio.run(run_agent("List the first 2 catalogs available"))

ステップ5:LangGraph プロジェクトを設定

CLI がワークフローグラフと環境設定を認識できるように LangGraph プロジェクトを設定します。LangGraph Studio での使用またはローカル可視化実行中にグラフを登録する設定ファイルを作成します。

設定ファイルを作成

プロジェクトディレクトリに langgraph.json という新しいファイルを作成します。

以下の設定を追加

langgraph.json ファイルに以下の内容を使用します:

{
  "dependencies": ["."],
  "graphs": {
    "agent": "./test.py:graph"
  },
  "env": ".env"
}

ステップ6:LangGraph で Amazon Athena をプロンプト(Connect AI 経由)

LangGraph 開発サーバーを実行して、LangGraph Studio でワークフローを表示し対話します。これにより、エージェントがプロンプトを処理し、ツールを呼び出し、MCP サーバーを通じてAmazon Athena のデータを取得する様子を直接可視化できます。

LangGraph 開発サーバーを起動

プロジェクトディレクトリでターミナルを開き、以下を実行します:

langgraph dev

Studio インターフェースにアクセス

サーバーが起動すると、LangGraph はローカル API を起動し、Studio UI へのリンクを提供します:

https://smith.langchain.com/studio/?baseUrl=http://127.0.0.1:2024

通常、コマンド実行時にリンクは自動的に開きます。開かない場合は、ブラウザでこのリンクを開いて LangGraph Studio ダッシュボードをロードしてください。

エージェントと対話

Studio インターフェースで、以下のような自然言語プロンプトを入力します:

カタログで利用可能なすべての Amazon Athena テーブルを表示

LangGraph はエージェントの推論フローをリアルタイムで可視化し、プロンプトの解釈、適切な MCP ツールの呼び出し、Amazon Athena からのリアルタイムデータの取得の様子を表示します。

CData Connect AI を入手

300 以上の SaaS、ビッグデータ、NoSQL ソースへのリアルタイムデータアクセスをクラウドアプリケーションから直接取得するには、CData Connect AI を今すぐお試しください!

はじめる準備はできましたか?

CData Connect AI の詳細、または無料トライアルにお申し込みください:

無料トライアル お問い合わせ