AWS Lambda でリアルタイムAzure Data Lake Storage のデータにアクセス

Jerod Johnson
Jerod Johnson
Senior Technology Evangelist
CData JDBC Driver を使用して、AWS Lambda からリアルタイムAzure Data Lake Storage のデータに接続。

AWS Lambda は、新しい情報やイベントに素早く応答するアプリケーションを構築できるコンピューティングサービスです。CData JDBC Driver for Azure Data Lake Storage と組み合わせることで、AWS Lambda 関数からリアルタイムAzure Data Lake Storage のデータを操作できます。この記事では、Eclipse で構築した AWS Lambda 関数からAzure Data Lake Storage のデータに接続してクエリを実行する方法を説明します。

なお、この記事の執筆時点(2022年6月)では、AWS Toolkit for Eclipse がサポートする最新バージョンは Eclipse 2019-12 および Java 8 となっています。

最適化されたデータ処理機能を組み込んだ CData JDBC ドライバは、リアルタイムAzure Data Lake Storage のデータとのインタラクションにおいて卓越したパフォーマンスを発揮します。Azure Data Lake Storage に対して複雑な SQL クエリを発行すると、ドライバーはフィルタや集計などのサポートされている SQL 操作を直接Azure Data Lake Storageにプッシュし、サポートされていない操作(主に SQL 関数や JOIN 操作)は組み込みの SQL エンジンを使用してクライアント側で処理します。さらに、動的メタデータクエリ機能により、ネイティブのデータ型を使用してAzure Data Lake Storage のデータの操作・分析が可能です。

接続プロパティの設定と接続文字列の構築

Azure Data Lake Storage 接続プロパティの取得・設定方法

Azure Data Lake Storage Gen2 への接続

それでは、Gen2 Data Lake Storage アカウントに接続していきましょう。接続するには、以下のプロパティを設定します。

  • Account:ストレージアカウントの名前
  • FileSystem:このアカウントに使用されるファイルシステム名。例えば、Azure Blob コンテナの名前
  • Directory(オプション):レプリケートされたファイルが保存される場所へのパス。パスが指定されない場合、ファイルはルートディレクトリに保存されます

Azure Data Lake Storage Gen2への認証

続いて、認証方法を設定しましょう。CData 製品では、5つの認証方法をサポートしています:アクセスキー(AccessKey)の使用、共有アクセス署名(SAS)の使用、Azure Active Directory OAuth(AzureAD)経由、Azure サービスプリンシパル(AzureServicePrincipal またはAzureServicePrincipalCert)経由、およびManaged Service Identity(AzureMSI)経由です。

アクセスキー

アクセスキーを使用して接続するには、まずADLS Gen2ストレージアカウントで利用可能なアクセスキーを取得する必要があります。

Azure ポータルでの手順は以下のとおりです:

  1. ADLS Gen2ストレージアカウントにアクセスします
  2. 設定でアクセスキーを選択します
  3. 利用可能なアクセスキーの1つの値をAccessKey 接続プロパティにコピーします

接続の準備ができたら、以下のプロパティを設定してください。

  • AuthSchemeAccessKey
  • AccessKey:先ほどAzure ポータルで取得したアクセスキーの値

共有アクセス署名(SAS)

共有アクセス署名を使用して接続するには、まずAzure Storage Explorer ツールを使用して署名を生成する必要があります。

接続の準備ができたら、以下のプロパティを設定してください。

  • AuthSchemeSAS
  • SharedAccessSignature:先ほど生成した共有アクセス署名の値

その他の認証方法については、 href="/kb/help/" target="_blank">ヘルプドキュメントの「Azure Data Lake Storage Gen2への認証」セクションをご確認ください。

NOTE: AWS Lambda 関数で JDBC ドライバーを使用するには、ライセンス(製品版または試用版)とランタイムキー(RTK)が必要です。ライセンス(または試用版)の取得については、弊社営業チームまでお問い合わせください

組み込みの接続文字列デザイナー

JDBC URL の構築には、Azure Data Lake Storage JDBC Driver に組み込まれている接続文字列デザイナーを使用できます。JAR ファイルをダブルクリックするか、コマンドラインから JAR ファイルを実行してください。

java -jar cdata.jdbc.adls.jar

接続プロパティ(RTK を含む)を入力し、接続文字列をクリップボードにコピーします。

AWS Lambda 関数の作成

  1. CData JDBC Driver for Azure Data Lake Storage のインストーラーをダウンロードし、パッケージを解凍して JAR ファイルを実行してドライバーをインストールします。
  2. AWS Toolkit for Eclipse を使用して、Eclipse で新しい AWS Lambda Java プロジェクトを作成します。詳細な手順は AWS のチュートリアル(amazon.com)を参照してください。

    この記事では、テーブル名を入力として渡せるように、プロジェクトのInput Type を「Custom」に設定します。

  3. CData JDBC Driver for Azure Data Lake Storage の JAR ファイル(cdata.jdbc.adls.jar)をビルドパスに追加します。このファイルは INSTALL_PATH\lib\ にあります。
  4. Java クラスに以下の import 文を追加します。
    import java.sql.Connection;
    import java.sql.DriverManager;
    import java.sql.ResultSet;
    import java.sql.ResultSetMetaData;
    import java.sql.SQLException;
    import java.sql.Statement;
    
  5. handleRequest メソッドの本体を以下のコードに置き換えます。DriverManager.getConnection メソッド呼び出し内の接続文字列は、実際の値に置き換えてください。

    String query = "SELECT * FROM " + input;
    
    try {
    	Class.forName("cdata.jdbc.adls.ADLSDriver");
    } catch (ClassNotFoundException ex) {
    	context.getLogger().log("Error: class not found");
    }
    
    Connection connection = null;
    
    try {
    	connection = DriverManager.getConnection("jdbc:cdata:adls:RTK=52465...;Schema=ADLSGen2;Account=myAccount;FileSystem=myFileSystem;AccessKey=myAccessKey;");
    } catch (SQLException ex) {
    	context.getLogger().log("Error getting connection: " + ex.getMessage());
    } catch (Exception ex) {
    	context.getLogger().log("Error: " + ex.getMessage());
    }
    
    if(connection != null)
    {
    	context.getLogger().log("Connected Successfully!\n");
    }
    
    ResultSet resultSet = null;
    try
    {
    	//executing query
    	Statement stmt = connection.createStatement();
    	resultSet = stmt.executeQuery(query);
    
    	ResultSetMetaData metaData = resultSet.getMetaData();
    	int numCols = metaData.getColumnCount();
    
    	//printing the results
    	while(resultSet.next())
    	{
    		for(int i = 1; i <= numCols; i++)
    		{
    			System.out.printf("%-25s", (resultSet.getObject(i) != null) ? resultSet.getObject(i).toString().replaceAll("\n", "") : null );
    		}
    		System.out.print("\n");
    	}
    }
    catch (SQLException ex)
    {
    	System.out.println("SQL Exception: " + ex.getMessage());
    }
    catch (Exception ex)
    {
    	System.out.println("General exception: " + ex.getMessage());
    }
    
    String output = "query: " + query + " complete";
    return output;
    

Lambda 関数のデプロイと実行

Eclipse で関数をビルドしたら、アップロードして実行する準備が整います。この記事では出力を AWS ログに書き込んでいますが、これをテンプレートとして、AWS Lambda 関数でAzure Data Lake Storage のデータを操作する独自のカスタムビジネスロジックを実装できます。

  1. パッケージを右クリックして、Amazon Web Services -> Upload function to AWS Lambda を選択します。
  2. 関数に名前を付け、IAM ロールを選択し、タイムアウト値を関数が完了するのに十分な値に設定します(クエリの結果サイズによって異なります)。
  3. パッケージを右クリックして、Amazon Web Services -> Run function on AWS Lambda を選択し、クエリ対象のAzure Data Lake Storageオブジェクト名(例:「Resources」)を入力します。
  4. ジョブの実行後、CloudWatch ログで出力を確認できます。

無償トライアル・詳細情報

CData JDBC Driver for Azure Data Lake Storage の30日間の無償トライアルをダウンロードして、AWS Lambda でリアルタイムAzure Data Lake Storage のデータを活用してみてください。ご不明な点があれば、サポートチームまでお気軽にお問い合わせください。

はじめる準備はできましたか?

Azure Data Lake Storage Driver の無料トライアルをダウンロードしてお試しください:

 ダウンロード

詳細:

Azure Data Lake Storage Icon Azure Data Lake Storage JDBC Driver お問い合わせ

Azure Data Lake Storage データに連携するJava アプリケーションを素早く、簡単に開発できる便利なドライバー。