CData Connect AI 経由でPostgreSQL インターフェースからリアルタイムの Hive のデータに接続

Dibyendu Datta
Dibyendu Datta
Lead Technology Evangelist
CData Connect AI で Hive へのリアルタイム接続を作成し、PostgreSQL からHive のデータに接続できます。

インターネット上には数多くのPostgreSQL クライアントがあります。PostgreSQL はデータアクセスのための一般的なインターフェースです。PostgreSQL をCData Connect AI と組み合わせることで、PostgreSQL からリアルタイムのHive のデータにデータベースのようにアクセスできます。この記事では、Connect AI でHive のデータに接続し、TDS foreign data wrapper(FDW)を使用してConnect AI とPostgreSQL 間の接続を確立するプロセスを説明します。

CData Connect AI は Hive 専用のSQL Server インターフェースを提供し、ネイティブでサポートされているデータベースにデータをレプリケートすることなく Hive のデータをクエリできます。最適化されたデータ処理を標準で使用し、CData Connect AI はサポートされているすべてのSQL 操作(フィルター、JOIN など)を Hive に直接プッシュし、サーバーサイド処理を活用して必要なHive のデータを迅速に返します。

Connect AI で Hive に接続

CData Connect AI は、シンプルなポイント&クリック操作でデータソースに接続できるインターフェースを提供しています。

  1. Connect AI にログインして「Sources」をクリックし、 Add Connection をクリックします
  2. Add Connection パネルから「Hive」を選択します
  3. Hive への接続に必要な認証プロパティを入力します。

    Apache Hive への接続を確立するには以下を指定します。

    • Server:HiveServer2 をホストするサーバーのホスト名またはIP アドレスに設定。
    • Port:HiveServer2 インスタンスへの接続用のポートに設定。
    • TransportMode:Hive サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
    • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。
    • CData 製品においてTLS/SSL を有効化するには、UseSSL をTrue に設定します
  4. Save & Test をクリックします
  5. Add Hive Connection ページの「Permissions」タブに移動し、ユーザーベースの権限を更新します。

Personal Access Token の追加

REST API、OData API、またはVirtual SQL Server 経由でConnect AI に接続する場合、Personal Access Token(PAT)を使用してConnect AI への接続を認証します。アクセス管理の粒度を維持するために、サービスごとに個別のPAT を作成することをお勧めします。

  1. Connect AI アプリの右上にある歯車アイコン()をクリックして設定ページを開きます。
  2. Settings ページで「Access Tokens」セクションに移動し、 Create PAT をクリックします。
  3. PAT に名前を付けて「Create」をクリックします。
  4. Personal Access Token は作成時にのみ表示されるため、必ずコピーして安全な場所に保存してください。

接続の設定とPAT の生成が完了したら、PostgreSQL からHive のデータに接続する準備が整いました。

TDS Foreign Data Wrapper のビルド

Foreign Data Wrapper は、PostgreSQL を再コンパイルすることなく、PostgreSQL の拡張機能としてインストールできます。例として tds_fdw 拡張機能を使用します(https://github.com/tds-fdw/tds_fdw)。

  1. 以下のようにgit リポジトリをクローンしてビルドできます:
    sudo apt-get install git
    git clone https://github.com/tds-fdw/tds_fdw.git
    cd tds_fdw
    make USE_PGXS=1
    sudo make USE_PGXS=1 install
    
    注意:複数のPostgreSQL バージョンがあり、デフォルト以外のバージョン用にビルドする場合は、まずpg_config のバイナリの場所を見つけてフルパスをメモし、make コマンドでUSE_PGXS=1 の後にPG_CONFIG= を追加します。
  2. インストールが完了したら、サーバーを起動します:
    sudo service postgresql start
    
  3. 次に、Postgres データベースに入ります
    psql -h localhost -U postgres -d postgres
    
    注意:localhost の代わりにPostgreSQL がホストされているIP を指定することもできます。

PostgreSQL データベースとしてHive のデータに接続し、データをクエリ!

拡張機能をインストールした後、以下の手順に従ってHive のデータへのクエリを開始します:

  1. データベースにログインします。
  2. データベース用の拡張機能をロードします:
    CREATE EXTENSION tds_fdw;
    
  3. Hive のデータ 用のサーバーオブジェクトを作成します:
    CREATE SERVER "ApacheHive1" FOREIGN DATA WRAPPER tds_fdw OPTIONS (servername'tds.cdata.com', port '14333', database 'ApacheHive1');
    
  4. Connect AI アカウントのメールアドレスとPersonal Access Token を使用してユーザーマッピングを設定します:
    CREATE USER MAPPING for postgres SERVER "ApacheHive1" OPTIONS (username '[email protected]', password 'your_personal_access_token' );
    
  5. ローカルスキーマを作成します:
    CREATE SCHEMA "ApacheHive1";
    
  6. ローカルデータベースに外部テーブルを作成します:
    #table_name 定義を使用:
    
    CREATE FOREIGN TABLE "ApacheHive1".Customers  (
    id varchar,
    CompanyName varchar)
    SERVER "ApacheHive1"
    OPTIONS(table_name 'ApacheHive.Customers', row_estimate_method 'showplan_all');
    
    #またはschema_name とtable_name 定義を使用:
    
    CREATE FOREIGN TABLE "ApacheHive1".Customers (
    id varchar,
    CompanyName varchar)
    SERVER "ApacheHive1"
    OPTIONS (schema_name 'ApacheHive', table_name 'Customers', row_estimate_method 'showplan_all');
    
    #またはquery 定義を使用:
    
    CREATE FOREIGN TABLE  "ApacheHive1".Customers (
    id varchar,
    CompanyName varchar)
    SERVER "ApacheHive1"
    OPTIONS (query 'SELECT * FROM ApacheHive.Customers', row_estimate_method 'showplan_all');
    
    #またはリモートカラム名を設定:
    
    CREATE FOREIGN TABLE "ApacheHive1".Customers (
    id varchar,
    col2 varchar OPTIONS (column_name 'CompanyName'))
    SERVER "ApacheHive1"
    OPTIONS (schema_name 'ApacheHive', table_name 'Customers', row_estimate_method 'showplan_all');
    
  7. これで、Hive に対して読み取り/書き込みコマンドを実行できます:
    SELECT id, CompanyName
    FROM "ApacheHive1".Customers;
    

詳細情報と無償トライアル

これで、リアルタイムのHive のデータからシンプルなクエリを作成できました。Hive(およびその他200以上のデータソース)への接続の詳細については、Connect AI ページをご覧ください。無償トライアルに登録して、今すぐPostgreSQL でリアルタイムのHive のデータを活用してみてください。

はじめる準備はできましたか?

CData Connect AI の詳細、または無料トライアルにお申し込みください:

無料トライアル お問い合わせ