LlamaIndex を使って Python でAzure Data Lake Storage データに自然言語でクエリを実行する方法

Jerod Johnson
Jerod Johnson
Senior Technology Evangelist
Python で LlamaIndex を使用してリアルタイムのAzure Data Lake Storage のデータに自然言語でクエリを実行。

CData Python Connector for Azure Data Lake Storage を使用して、Azure Data Lake Storage からリアルタイムデータへのクエリを開始しましょう。LlamaIndex と AI の力を活用して、複雑な SQL クエリを書くことなく、シンプルな自然言語でインサイトを取得できます。意思決定を強化するリアルタイムデータアクセスのメリットを享受しながら、既存の Python アプリケーションと簡単に統合できます。

CData Python Connector は、組み込みの最適化されたデータ処理により、Python でリアルタイムのAzure Data Lake Storage のデータを操作する際に比類のないパフォーマンスを提供します。Python から複雑な SQL クエリを発行すると、ドライバーはフィルターや集計などのサポートされた SQL 操作を直接 Azure Data Lake Storage にプッシュし、埋め込み SQL エンジンを使用してサポートされていない操作(多くの場合 SQL 関数や JOIN 操作)をクライアント側で処理します。

トレンド分析、レポート作成、データの可視化など、CData Python Connector を使用すれば、リアルタイムのデータソースの可能性を最大限に活用できます。

概要

LlamaIndex を使用して、CData Python Connector forAzure Data Lake Storage のデータでリアルタイムデータにクエリを実行する方法の概要です:

  • ロギング、データベース接続、NLP に必要な Python、CData、LlamaIndex モジュールをインポートします。
  • アプリケーションからの API リクエストを認証するための OpenAI API キーを取得します。
  • CData Python Connector を使用してリアルタイムのAzure Data Lake Storage のデータに接続します。
  • OpenAI を初期化し、自然言語クエリを処理するための SQLDatabase と NLSQLTableQueryEngine のインスタンスを作成します。
  • クエリエンジンと特定のデータベースインスタンスを作成します。
  • 自然言語クエリ(例:「最も稼いでいる従業員は誰ですか?」)を実行して、データベースから構造化されたレスポンスを取得します。
  • 取得したデータを分析してインサイトを得て、データドリブンな意思決定に役立てます。

必要なモジュールのインポート

CData、データベース接続、自然言語クエリに必要なモジュールをインポートします。

import os
import logging
import sys

# ロギングの設定
logging.basicConfig(stream=sys.stdout, level=logging.INFO, force=True)
logging.getLogger().addHandler(logging.StreamHandler(stream=sys.stdout))

# CData と LlamaIndex に必要なモジュールをインポート
import cdata.adls as mod
from sqlalchemy import create_engine
from llama_index.core.query_engine import NLSQLTableQueryEngine
from llama_index.core import SQLDatabase
from llama_index.llms.openai import OpenAI

OpenAI API キーの設定

OpenAI の言語モデルを使用するには、API キーを環境変数として設定する必要があります。システムの環境変数で OpenAI API キーが利用可能であることを確認してください。

# 環境変数から OpenAI API キーを取得
OPENAI_API_KEY = os.environ["OPENAI_API_KEY"]

''または、コード内で直接 API キーを追加することもできます(ただし、セキュリティリスクのため、本番環境ではこの方法は推奨されません):''

# API キーを直接設定(本番使用には非推奨)
OPENAI_API_KEY = "your-api-key-here"

データベース接続の作成

次に、必要な接続プロパティを含む接続文字列を使用して、CData Connector で Azure Data Lake Storage への接続を確立します。

Azure Data Lake Storage 接続プロパティの取得・設定方法

Azure Data Lake Storage Gen2 への接続

それでは、Gen2 Data Lake Storage アカウントに接続していきましょう。接続するには、以下のプロパティを設定します。

  • Account:ストレージアカウントの名前
  • FileSystem:このアカウントに使用されるファイルシステム名。例えば、Azure Blob コンテナの名前
  • Directory(オプション):レプリケートされたファイルが保存される場所へのパス。パスが指定されない場合、ファイルはルートディレクトリに保存されます

Azure Data Lake Storage Gen2への認証

続いて、認証方法を設定しましょう。CData 製品では、5つの認証方法をサポートしています:アクセスキー(AccessKey)の使用、共有アクセス署名(SAS)の使用、Azure Active Directory OAuth(AzureAD)経由、Azure サービスプリンシパル(AzureServicePrincipal またはAzureServicePrincipalCert)経由、およびManaged Service Identity(AzureMSI)経由です。

アクセスキー

アクセスキーを使用して接続するには、まずADLS Gen2ストレージアカウントで利用可能なアクセスキーを取得する必要があります。

Azure ポータルでの手順は以下のとおりです:

  1. ADLS Gen2ストレージアカウントにアクセスします
  2. 設定でアクセスキーを選択します
  3. 利用可能なアクセスキーの1つの値をAccessKey 接続プロパティにコピーします

接続の準備ができたら、以下のプロパティを設定してください。

  • AuthSchemeAccessKey
  • AccessKey:先ほどAzure ポータルで取得したアクセスキーの値

共有アクセス署名(SAS)

共有アクセス署名を使用して接続するには、まずAzure Storage Explorer ツールを使用して署名を生成する必要があります。

接続の準備ができたら、以下のプロパティを設定してください。

  • AuthSchemeSAS
  • SharedAccessSignature:先ほど生成した共有アクセス署名の値

その他の認証方法については、 href="/kb/help/" target="_blank">ヘルプドキュメントの「Azure Data Lake Storage Gen2への認証」セクションをご確認ください。

Azure Data Lake Storage への接続

# CData Python Connector for Azure Data Lake Storage を使用してデータベースエンジンを作成
engine = create_engine("cdata_adls_2:///?User=Schema=ADLSGen2;Account=myAccount;FileSystem=myFileSystem;AccessKey=myAccessKey;")

OpenAI インスタンスの初期化

OpenAI 言語モデルのインスタンスを作成します。ここで、temperature やモデルバージョンなどのパラメータを指定できます。

# OpenAI 言語モデルインスタンスを初期化
llm = OpenAI(temperature=0.0, model="gpt-3.5-turbo")

データベースとクエリエンジンの設定

SQL データベースとクエリエンジンを設定します。NLSQLTableQueryEngine を使用すると、SQL データベースに対して自然言語クエリを実行できます。

# SQL データベースインスタンスを作成
sql_db = SQLDatabase(engine)  # すべてのテーブルを含む

# 自然言語 SQL クエリ用のクエリエンジンを初期化
query_engine = NLSQLTableQueryEngine(sql_database=sql_db)

クエリの実行

これで、リアルタイムのデータソースに対して自然言語クエリを実行できます。この例では、最も稼いでいる従業員上位 2 名をクエリします。

# クエリ文字列を定義
query_str = "Who are the top earning employees?"

# クエリエンジンからレスポンスを取得
response = query_engine.query(query_str)

# レスポンスを出力
print(response)

CData Python Connector for Azure Data Lake Storage の無料 30 日間トライアルをダウンロードして、リアルタイムデータへのシームレスなクエリを始めましょう。自然言語処理の力を体験し、データから貴重なインサイトを引き出してください。

はじめる準備はできましたか?

Azure Data Lake Storage Connector のコミュニティライセンスをダウンロード:

 ダウンロード

詳細:

Azure Data Lake Storage Icon Azure Data Lake Storage Python Connector お問い合わせ

Azure Data Lake Storage データ連携用のPython コネクタライブラリ。Azure Data Lake Storage データをpandas、SQLAlchemy、Dash、petl などの人気のPython ツールにシームレスに統合。