CData Connect AI 経由でPostgreSQL インターフェースからリアルタイムの Spark のデータに接続
インターネット上には数多くのPostgreSQL クライアントがあります。PostgreSQL はデータアクセスのための一般的なインターフェースです。PostgreSQL をCData Connect AI と組み合わせることで、PostgreSQL からリアルタイムのSpark のデータにデータベースのようにアクセスできます。この記事では、Connect AI でSpark のデータに接続し、TDS foreign data wrapper(FDW)を使用してConnect AI とPostgreSQL 間の接続を確立するプロセスを説明します。
CData Connect AI は Spark 専用のSQL Server インターフェースを提供し、ネイティブでサポートされているデータベースにデータをレプリケートすることなく Spark のデータをクエリできます。最適化されたデータ処理を標準で使用し、CData Connect AI はサポートされているすべてのSQL 操作(フィルター、JOIN など)を Spark に直接プッシュし、サーバーサイド処理を活用して必要なSpark のデータを迅速に返します。
Connect AI で Spark に接続
CData Connect AI は、シンプルなポイント&クリック操作でデータソースに接続できるインターフェースを提供しています。
- Connect AI にログインして「Sources」をクリックし、 Add Connection をクリックします
- Add Connection パネルから「Spark」を選択します
-
Spark への接続に必要な認証プロパティを入力します。
SparkSQL への接続
SparkSQL への接続を確立するには以下を指定します。
- Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
- Port:SparkSQL インスタンスへの接続用のポートに設定。
- TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
- AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。
Databricks への接続
Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。
- Server:Databricks クラスターのサーバーのホスト名に設定。
- Port:443
- TransportMode:HTTP
- HTTPPath:Databricks クラスターのHTTP パスに設定。
- UseSSL:True
- AuthScheme:PLAIN
- User:'token' に設定。
- Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。
- Save & Test をクリックします
-
Add Spark Connection ページの「Permissions」タブに移動し、ユーザーベースの権限を更新します。
Personal Access Token の追加
REST API、OData API、またはVirtual SQL Server 経由でConnect AI に接続する場合、Personal Access Token(PAT)を使用してConnect AI への接続を認証します。アクセス管理の粒度を維持するために、サービスごとに個別のPAT を作成することをお勧めします。
- Connect AI アプリの右上にある歯車アイコン()をクリックして設定ページを開きます。
- Settings ページで「Access Tokens」セクションに移動し、 Create PAT をクリックします。
-
PAT に名前を付けて「Create」をクリックします。
- Personal Access Token は作成時にのみ表示されるため、必ずコピーして安全な場所に保存してください。
接続の設定とPAT の生成が完了したら、PostgreSQL からSpark のデータに接続する準備が整いました。
TDS Foreign Data Wrapper のビルド
Foreign Data Wrapper は、PostgreSQL を再コンパイルすることなく、PostgreSQL の拡張機能としてインストールできます。例として tds_fdw 拡張機能を使用します(https://github.com/tds-fdw/tds_fdw)。
- 以下のようにgit リポジトリをクローンしてビルドできます:
sudo apt-get install git git clone https://github.com/tds-fdw/tds_fdw.git cd tds_fdw make USE_PGXS=1 sudo make USE_PGXS=1 install
注意:複数のPostgreSQL バージョンがあり、デフォルト以外のバージョン用にビルドする場合は、まずpg_config のバイナリの場所を見つけてフルパスをメモし、make コマンドでUSE_PGXS=1 の後にPG_CONFIG=を追加します。 - インストールが完了したら、サーバーを起動します:
sudo service postgresql start
- 次に、Postgres データベースに入ります
psql -h localhost -U postgres -d postgres
注意:localhost の代わりにPostgreSQL がホストされているIP を指定することもできます。
PostgreSQL データベースとしてSpark のデータに接続し、データをクエリ!
拡張機能をインストールした後、以下の手順に従ってSpark のデータへのクエリを開始します:
- データベースにログインします。
- データベース用の拡張機能をロードします:
CREATE EXTENSION tds_fdw;
- Spark のデータ 用のサーバーオブジェクトを作成します:
CREATE SERVER "SparkSQL1" FOREIGN DATA WRAPPER tds_fdw OPTIONS (servername'tds.cdata.com', port '14333', database 'SparkSQL1');
- Connect AI アカウントのメールアドレスとPersonal Access Token を使用してユーザーマッピングを設定します:
CREATE USER MAPPING for postgres SERVER "SparkSQL1" OPTIONS (username '[email protected]', password 'your_personal_access_token' );
- ローカルスキーマを作成します:
CREATE SCHEMA "SparkSQL1";
- ローカルデータベースに外部テーブルを作成します:
#table_name 定義を使用: CREATE FOREIGN TABLE "SparkSQL1".Customers ( id varchar, Balance varchar) SERVER "SparkSQL1" OPTIONS(table_name 'SparkSQL.Customers', row_estimate_method 'showplan_all'); #またはschema_name とtable_name 定義を使用: CREATE FOREIGN TABLE "SparkSQL1".Customers ( id varchar, Balance varchar) SERVER "SparkSQL1" OPTIONS (schema_name 'SparkSQL', table_name 'Customers', row_estimate_method 'showplan_all'); #またはquery 定義を使用: CREATE FOREIGN TABLE "SparkSQL1".Customers ( id varchar, Balance varchar) SERVER "SparkSQL1" OPTIONS (query 'SELECT * FROM SparkSQL.Customers', row_estimate_method 'showplan_all'); #またはリモートカラム名を設定: CREATE FOREIGN TABLE "SparkSQL1".Customers ( id varchar, col2 varchar OPTIONS (column_name 'Balance')) SERVER "SparkSQL1" OPTIONS (schema_name 'SparkSQL', table_name 'Customers', row_estimate_method 'showplan_all');
- これで、Spark に対して読み取り/書き込みコマンドを実行できます:
SELECT id, Balance FROM "SparkSQL1".Customers;
詳細情報と無償トライアル
これで、リアルタイムのSpark のデータからシンプルなクエリを作成できました。Spark(およびその他200以上のデータソース)への接続の詳細については、Connect AI ページをご覧ください。無償トライアルに登録して、今すぐPostgreSQL でリアルタイムのSpark のデータを活用してみてください。