CData Connect AI 経由でPostgreSQL インターフェースからリアルタイムの Spark のデータに接続

Dibyendu Datta
Dibyendu Datta
Lead Technology Evangelist
CData Connect AI で Spark へのリアルタイム接続を作成し、PostgreSQL からSpark のデータに接続できます。

インターネット上には数多くのPostgreSQL クライアントがあります。PostgreSQL はデータアクセスのための一般的なインターフェースです。PostgreSQL をCData Connect AI と組み合わせることで、PostgreSQL からリアルタイムのSpark のデータにデータベースのようにアクセスできます。この記事では、Connect AI でSpark のデータに接続し、TDS foreign data wrapper(FDW)を使用してConnect AI とPostgreSQL 間の接続を確立するプロセスを説明します。

CData Connect AI は Spark 専用のSQL Server インターフェースを提供し、ネイティブでサポートされているデータベースにデータをレプリケートすることなく Spark のデータをクエリできます。最適化されたデータ処理を標準で使用し、CData Connect AI はサポートされているすべてのSQL 操作(フィルター、JOIN など)を Spark に直接プッシュし、サーバーサイド処理を活用して必要なSpark のデータを迅速に返します。

Connect AI で Spark に接続

CData Connect AI は、シンプルなポイント&クリック操作でデータソースに接続できるインターフェースを提供しています。

  1. Connect AI にログインして「Sources」をクリックし、 Add Connection をクリックします
  2. Add Connection パネルから「Spark」を選択します
  3. Spark への接続に必要な認証プロパティを入力します。

    SparkSQL への接続

    SparkSQL への接続を確立するには以下を指定します。

    • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
    • Port:SparkSQL インスタンスへの接続用のポートに設定。
    • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
    • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

    Databricks への接続

    Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。

    • Server:Databricks クラスターのサーバーのホスト名に設定。
    • Port:443
    • TransportMode:HTTP
    • HTTPPath:Databricks クラスターのHTTP パスに設定。
    • UseSSL:True
    • AuthScheme:PLAIN
    • User:'token' に設定。
    • Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。
  4. Save & Test をクリックします
  5. Add Spark Connection ページの「Permissions」タブに移動し、ユーザーベースの権限を更新します。

Personal Access Token の追加

REST API、OData API、またはVirtual SQL Server 経由でConnect AI に接続する場合、Personal Access Token(PAT)を使用してConnect AI への接続を認証します。アクセス管理の粒度を維持するために、サービスごとに個別のPAT を作成することをお勧めします。

  1. Connect AI アプリの右上にある歯車アイコン()をクリックして設定ページを開きます。
  2. Settings ページで「Access Tokens」セクションに移動し、 Create PAT をクリックします。
  3. PAT に名前を付けて「Create」をクリックします。
  4. Personal Access Token は作成時にのみ表示されるため、必ずコピーして安全な場所に保存してください。

接続の設定とPAT の生成が完了したら、PostgreSQL からSpark のデータに接続する準備が整いました。

TDS Foreign Data Wrapper のビルド

Foreign Data Wrapper は、PostgreSQL を再コンパイルすることなく、PostgreSQL の拡張機能としてインストールできます。例として tds_fdw 拡張機能を使用します(https://github.com/tds-fdw/tds_fdw)。

  1. 以下のようにgit リポジトリをクローンしてビルドできます:
    sudo apt-get install git
    git clone https://github.com/tds-fdw/tds_fdw.git
    cd tds_fdw
    make USE_PGXS=1
    sudo make USE_PGXS=1 install
    
    注意:複数のPostgreSQL バージョンがあり、デフォルト以外のバージョン用にビルドする場合は、まずpg_config のバイナリの場所を見つけてフルパスをメモし、make コマンドでUSE_PGXS=1 の後にPG_CONFIG= を追加します。
  2. インストールが完了したら、サーバーを起動します:
    sudo service postgresql start
    
  3. 次に、Postgres データベースに入ります
    psql -h localhost -U postgres -d postgres
    
    注意:localhost の代わりにPostgreSQL がホストされているIP を指定することもできます。

PostgreSQL データベースとしてSpark のデータに接続し、データをクエリ!

拡張機能をインストールした後、以下の手順に従ってSpark のデータへのクエリを開始します:

  1. データベースにログインします。
  2. データベース用の拡張機能をロードします:
    CREATE EXTENSION tds_fdw;
    
  3. Spark のデータ 用のサーバーオブジェクトを作成します:
    CREATE SERVER "SparkSQL1" FOREIGN DATA WRAPPER tds_fdw OPTIONS (servername'tds.cdata.com', port '14333', database 'SparkSQL1');
    
  4. Connect AI アカウントのメールアドレスとPersonal Access Token を使用してユーザーマッピングを設定します:
    CREATE USER MAPPING for postgres SERVER "SparkSQL1" OPTIONS (username '[email protected]', password 'your_personal_access_token' );
    
  5. ローカルスキーマを作成します:
    CREATE SCHEMA "SparkSQL1";
    
  6. ローカルデータベースに外部テーブルを作成します:
    #table_name 定義を使用:
    
    CREATE FOREIGN TABLE "SparkSQL1".Customers  (
    id varchar,
    Balance varchar)
    SERVER "SparkSQL1"
    OPTIONS(table_name 'SparkSQL.Customers', row_estimate_method 'showplan_all');
    
    #またはschema_name とtable_name 定義を使用:
    
    CREATE FOREIGN TABLE "SparkSQL1".Customers (
    id varchar,
    Balance varchar)
    SERVER "SparkSQL1"
    OPTIONS (schema_name 'SparkSQL', table_name 'Customers', row_estimate_method 'showplan_all');
    
    #またはquery 定義を使用:
    
    CREATE FOREIGN TABLE  "SparkSQL1".Customers (
    id varchar,
    Balance varchar)
    SERVER "SparkSQL1"
    OPTIONS (query 'SELECT * FROM SparkSQL.Customers', row_estimate_method 'showplan_all');
    
    #またはリモートカラム名を設定:
    
    CREATE FOREIGN TABLE "SparkSQL1".Customers (
    id varchar,
    col2 varchar OPTIONS (column_name 'Balance'))
    SERVER "SparkSQL1"
    OPTIONS (schema_name 'SparkSQL', table_name 'Customers', row_estimate_method 'showplan_all');
    
  7. これで、Spark に対して読み取り/書き込みコマンドを実行できます:
    SELECT id, Balance
    FROM "SparkSQL1".Customers;
    

詳細情報と無償トライアル

これで、リアルタイムのSpark のデータからシンプルなクエリを作成できました。Spark(およびその他200以上のデータソース)への接続の詳細については、Connect AI ページをご覧ください。無償トライアルに登録して、今すぐPostgreSQL でリアルタイムのSpark のデータを活用してみてください。

はじめる準備はできましたか?

CData Connect AI の詳細、または無料トライアルにお申し込みください:

無料トライアル お問い合わせ