LlamaIndex を使って Python でPresto データに自然言語でクエリを実行する方法
CData Python Connector for Presto を使用して、Presto からリアルタイムデータへのクエリを開始しましょう。LlamaIndex と AI の力を活用して、複雑な SQL クエリを書くことなく、シンプルな自然言語でインサイトを取得できます。意思決定を強化するリアルタイムデータアクセスのメリットを享受しながら、既存の Python アプリケーションと簡単に統合できます。
CData Python Connector は、組み込みの最適化されたデータ処理により、Python でリアルタイムのPresto のデータを操作する際に比類のないパフォーマンスを提供します。Python から複雑な SQL クエリを発行すると、ドライバーはフィルターや集計などのサポートされた SQL 操作を直接 Presto にプッシュし、埋め込み SQL エンジンを使用してサポートされていない操作(多くの場合 SQL 関数や JOIN 操作)をクライアント側で処理します。
トレンド分析、レポート作成、データの可視化など、CData Python Connector を使用すれば、リアルタイムのデータソースの可能性を最大限に活用できます。
Presto データ連携について
CData を使用すれば、Trino および Presto SQL エンジンのライブデータへのアクセスと統合がこれまでになく簡単になります。お客様は CData の接続機能を以下の目的で利用しています:
- Trino v345 以降(旧 PrestoSQL)および Presto v0.242 以降(旧 PrestoDB)のデータにアクセスできます。
- Trino または Presto インスタンスの基盤となるすべてのデータに対して読み取り・書き込みアクセスができます。
- 最大スループットのための最適化されたクエリ生成。
Presto と Trino により、ユーザーは単一のエンドポイントを通じてさまざまな基盤データソースにアクセスできます。CData の接続と組み合わせることで、ユーザーはインスタンスへの純粋な SQL-92 アクセスを取得し、ビジネスデータをデータウェアハウスに統合したり、Power BI や Tableau などのお気に入りのツールからライブデータに直接簡単にアクセスしたりできます。
多くの場合、CData のライブ接続は、ツールで利用可能なネイティブのインポート機能を上回ります。あるお客様は、レポートに必要なデータセットのサイズが大きいため、Power BI を効果的に使用できませんでした。同社が CData Power BI Connector for Presto を導入したところ、DirectQuery 接続モードを使用してリアルタイムでレポートを生成できるようになりました。
はじめに
概要
LlamaIndex を使用して、CData Python Connector forPresto のデータでリアルタイムデータにクエリを実行する方法の概要です:
- ロギング、データベース接続、NLP に必要な Python、CData、LlamaIndex モジュールをインポートします。
- アプリケーションからの API リクエストを認証するための OpenAI API キーを取得します。
- CData Python Connector を使用してリアルタイムのPresto のデータに接続します。
- OpenAI を初期化し、自然言語クエリを処理するための SQLDatabase と NLSQLTableQueryEngine のインスタンスを作成します。
- クエリエンジンと特定のデータベースインスタンスを作成します。
- 自然言語クエリ(例:「最も稼いでいる従業員は誰ですか?」)を実行して、データベースから構造化されたレスポンスを取得します。
- 取得したデータを分析してインサイトを得て、データドリブンな意思決定に役立てます。
必要なモジュールのインポート
CData、データベース接続、自然言語クエリに必要なモジュールをインポートします。
import os import logging import sys # ロギングの設定 logging.basicConfig(stream=sys.stdout, level=logging.INFO, force=True) logging.getLogger().addHandler(logging.StreamHandler(stream=sys.stdout)) # CData と LlamaIndex に必要なモジュールをインポート import cdata.presto as mod from sqlalchemy import create_engine from llama_index.core.query_engine import NLSQLTableQueryEngine from llama_index.core import SQLDatabase from llama_index.llms.openai import OpenAI
OpenAI API キーの設定
OpenAI の言語モデルを使用するには、API キーを環境変数として設定する必要があります。システムの環境変数で OpenAI API キーが利用可能であることを確認してください。
# 環境変数から OpenAI API キーを取得 OPENAI_API_KEY = os.environ["OPENAI_API_KEY"] ''または、コード内で直接 API キーを追加することもできます(ただし、セキュリティリスクのため、本番環境ではこの方法は推奨されません):'' # API キーを直接設定(本番使用には非推奨) OPENAI_API_KEY = "your-api-key-here"
データベース接続の作成
次に、必要な接続プロパティを含む接続文字列を使用して、CData Connector で Presto への接続を確立します。
Presto への接続には、まずはServer およびPort を接続プロパティとして設定します。それ以外の追加項目は接続方式によって異なります。
TLS/SSL を有効化するには、UseSSL をTRUE に設定します。
LDAP で認証
LDAP で認証するには、次の接続プロパティを設定します:
- AuthScheme: LDAP に設定。
- User: LDAP で接続するユーザー名。
- Password: LDAP で接続するユーザーのパスワード。
Kerberos 認証
KERBEROS 認証を使う場合には、以下を設定します:
- AuthScheme: KERBEROS に設定。
- KerberosKDC: 接続するユーザーのKerberos Key Distribution Center (KDC) サービス。
- KerberosRealm: 接続するユーザーのKerberos Realm 。
- KerberosSPN: Kerberos Domain Controller のService Principal Name。
- KerberosKeytabFile: Kerberos principals とencrypted keys を含むKeytab file。
- User: Kerberos のユーザー。
- Password: Kerberos で認証するユーザーのパスワード。
Presto への接続
# CData Python Connector for Presto を使用してデータベースエンジンを作成
engine = create_engine("cdata_presto_2:///?User=Server=127.0.0.1;Port=8080;")
OpenAI インスタンスの初期化
OpenAI 言語モデルのインスタンスを作成します。ここで、temperature やモデルバージョンなどのパラメータを指定できます。
# OpenAI 言語モデルインスタンスを初期化 llm = OpenAI(temperature=0.0, model="gpt-3.5-turbo")
データベースとクエリエンジンの設定
SQL データベースとクエリエンジンを設定します。NLSQLTableQueryEngine を使用すると、SQL データベースに対して自然言語クエリを実行できます。
# SQL データベースインスタンスを作成 sql_db = SQLDatabase(engine) # すべてのテーブルを含む # 自然言語 SQL クエリ用のクエリエンジンを初期化 query_engine = NLSQLTableQueryEngine(sql_database=sql_db)
クエリの実行
これで、リアルタイムのデータソースに対して自然言語クエリを実行できます。この例では、最も稼いでいる従業員上位 2 名をクエリします。
# クエリ文字列を定義 query_str = "Who are the top earning employees?" # クエリエンジンからレスポンスを取得 response = query_engine.query(query_str) # レスポンスを出力 print(response)
CData Python Connector for Presto の無料 30 日間トライアルをダウンロードして、リアルタイムデータへのシームレスなクエリを始めましょう。自然言語処理の力を体験し、データから貴重なインサイトを引き出してください。