ETL Validator JDBC でRedshift のデータを扱う方法

Dibyendu Datta
Dibyendu Datta
Lead Technology Evangelist
CData JDBC Driver を使用して、ETL Validator ジョブからRedshift に接続します。

ETL Validator は、組織全体のデータプラットフォームを統合するためのデータ移動と変換機能を提供します。 CData JDBC ドライバーは ETL Validator とシームレスに統合され、ネイティブの接続機能を拡張してRedshift のデータを含めることができます。

このチュートリアルでは、シンプルな ETL Validator データフローを構築し、Redshift のデータを抽出して、サンプルのデータストレージソリューションである SQL Server にロードする手順を説明します。

CData 経由で新しい ETL Validator データソースを追加

CData は、CData JDBC ドライバー経由で接続するデータソースを追加できるようにすることで、ETL Validator のデータ接続機能を拡張します。Redshift のデータへの接続は、以下の手順で CData の接続スイートを通じて ETL Validator で新しいデータソースを作成するだけです。

ETL Validator にログイン

まず、ETL Validator にログインしてアプリケーションダッシュボードを表示します。

データソースの追加をクリック

CData は ETL Validator 内のデータソースオプションを拡張します。

CData をクリック

CData の接続機能は ETL Validator のデータソースオプションに組み込まれています。

CData Driver の接続文字列を設定

ETL Validator で Redshift への接続を確立するには、JDBC 接続文字列が必要です。

Amazon Redshift への接続

それでは、早速Amazon Redshift に接続していきましょう。データに接続するには、以下の接続パラメータを指定します。

  • Server:Amazon Redshift データベースをホスティングしているサーバーのホスト名またはIP アドレス
  • Database:Amazon Redshift クラスター用に作成したデータベース
  • Port(オプション):Amazon Redshift データベースをホスティングしているサーバーのポート。デフォルトは5439です

これらの値は、以下のステップでAWS マネージメントコンソールから取得できます。

  1. Amazon Redshift コンソールを開きます(http://console.aws.amazon.com/redshift)
  2. Clusters ページで、クラスター名をクリックしてください
  3. Configuration タブの"Cluster Database Properties" セクションからプロパティを取得します。接続プロパティの値は、ODBC URL で設定された値と同じになります

Amazon Redshiftへの認証

CData 製品では幅広い認証オプションに対応しています。標準認証情報からIAM クレデンシャル、ADFS、Ping Federate、Microsoft Entra ID(Azure AD)、Azure AD PKCE まで利用可能です。

標準認証

ログイン資格情報を使用してAmazon Redshift に接続するには、以下のプロパティを設定してみましょう。
  • AuthSchemeBasic
  • User:認証するユーザーのログイン情報
  • Password:認証するユーザーのパスワード

その他の認証方法については、ヘルプドキュメントをご確認ください。

ビルトイン接続文字列デザイナー

JDBC URL の構成については、Redshift JDBC Driver に組み込まれている接続文字列デザイナーを使用してください。JAR ファイルをダブルクリックするか、コマンドラインから JAR ファイルを実行します。

java -jar cdata.jdbc.redshift.jar

一般的な接続文字列は以下のようになります。

jdbc:redshift:User=admin;Password=admin;Database=dev;Server=examplecluster.my.us-west-2.redshift.amazonaws.com;Port=5439;

ドライバーのライセンス

JDBC ドライバーが適切にライセンスされていることを確認するには、ライセンスファイルを適切な場所にコピーします。

Redshift 用の JDBC Driver と lic ファイルを「C:\Program Files\CData[product_name]\lib」から 「C:\Datagaps\ETLValidator\Server\apache-tomcat\bin」にコピーします。

            cdata.jdbc.redshift.jar
            cdata.jdbc.redshift.lic
        

注意:.lic ファイルを jar と一緒にコピーしない場合、有効なライセンスがインストールされていないことを示すライセンスエラーが表示されます。これは評価版と正式版の両方に当てはまります。

接続を保存

CData JDBC ドライバークラスのロードで問題が発生した場合は、DataGap のチームにお問い合わせください。関連するドライバーの jar ファイルをロードする方法について案内を受けることができます。

SQL Server をターゲットとして追加

この例では Redshift のデータの保存先として SQL Server を使用しますが、任意の保存先を代わりに使用できます。

DataSources に移動し、MS_SQL_SERVER を選択

このオプションがデフォルトです。

必要な接続の詳細を入力し、接続をテスト

詳細は特定のターゲットによって異なりますが、URL、認証情報などが含まれる場合があります。

ETL Validator でデータフローを作成

Dataflows タブを開く

設定済みのデータフローがこのウィンドウに表示されます。

Create Dataflow を選択

新しいデータフローに名前を付けて保存します。

データフローを開いてデータフロー図を表示

データ移動の詳細はこのパネルで設定します。

右側から JDBC をソースとしてドラッグ&ドロップ

新しいソースに適切な名前を付けて保存します。

新しいソースの Query セクションを入力

Redshift のデータからどのデータを取得するかを反映するテーブルを Schema オプションから選択します。

クエリの予想結果を確認

設定したクエリの予想される結果が Result タブに表示されます。

データフローに保存先を追加

「Switch to Diagram」を選択し、右側(Sink オプションの下)から DB Sink をターゲットとしてドラッグ&ドロップします。シンクに適切な名前を付けて保存します。

保存先の適切なスキーマを設定

ソーステーブルの構造に一致するスキーマとテーブルを選択します。この例では、ターゲット側のテーブルがソースに一致するように作成されているため、データがシームレスに流れます。より高度なスキーマ変換操作については、この記事の範囲外です。

RUN オプションをクリックしてレプリケーションを開始

ジョブの実行には時間がかかります。

完成したデータフローを確認

図に戻り、Redshift のデータから SQL Server への完成したデータレプリケーションジョブを確認します。

今すぐ始めましょう

CData JDBC Driver for Redshift の30日間無償トライアルをダウンロードして、 ETL Validator で Redshift 連携アプリケーションの構築を始めましょう。ご不明な点がございましたら、 サポートチームまでお問い合わせください。

はじめる準備はできましたか?

Amazon Redshift Driver の無料トライアルをダウンロードしてお試しください:

 ダウンロード

詳細:

Amazon Redshift Icon Amazon Redshift JDBC Driver お問い合わせ

Amazon Redshift データ連携のパワフルなJava アプリケーションを素早く作成して配布。