OData を介してTIBCO Spotfire でAzure Data Lake Storage のデータをビジュアライズ

古川えりか
古川えりか
コンテンツスペシャリスト
Azure Data Lake Storage のデータをTIBCO Spotfire のダッシュボードに統合。



OData は、クラウドベース、モバイル、およびその他のオンラインアプリケーション間のリアルタイム通信を可能にする主要なプロトコルです。CData API Server は、Azure Data Lake Storage のADO.NET Provider for ADLS と組み合わせると、Azure Data Lake Storage のデータ(またはその他の250+ のADO.NET Providers データ)をTIBCO Spotfire などのOData コンシューマに提供します。この記事では、API Server とSpotfire のOData の組み込みサポートを使用して、Azure Data Lake Storage のデータにリアルタイムでアクセスする方法を説明します。

API Server の設定

以下のリンクからAPI Server の無償トライアルをスタートしたら、セキュアなAzure Data Lake Storage OData サービスを作成していきましょう。

Azure Data Lake Storage への接続

TIBCO Spotfire からAzure Data Lake Storage のデータを操作するには、まずAzure Data Lake Storage への接続を作成・設定します。

  1. API Server にログインして、「Connections」をクリック、さらに「接続を追加」をクリックします。 接続を追加
  2. 「接続を追加」をクリックして、データソースがAPI Server に事前にインストールされている場合は、一覧から「Azure Data Lake Storage」を選択します。
  3. 事前にインストールされていない場合は、コネクタを追加していきます。コネクタ追加の手順は以下の記事にまとめてありますので、ご確認ください。
    CData コネクタの追加方法はこちら >>
  4. それでは、Azure Data Lake Storage への接続設定を行っていきましょう! 接続設定
  5. Azure Data Lake Storage 接続プロパティの取得・設定方法

    Azure Data Lake Storage Gen2 への接続

    それでは、Gen2 Data Lake Storage アカウントに接続していきましょう。接続するには、以下のプロパティを設定します。

    • Account:ストレージアカウントの名前
    • FileSystem:このアカウントに使用されるファイルシステム名。例えば、Azure Blob コンテナの名前
    • Directory(オプション):レプリケートされたファイルが保存される場所へのパス。パスが指定されない場合、ファイルはルートディレクトリに保存されます

    Azure Data Lake Storage Gen2への認証

    続いて、認証方法を設定しましょう。CData 製品では、5つの認証方法をサポートしています:アクセスキー(AccessKey)の使用、共有アクセス署名(SAS)の使用、Azure Active Directory OAuth(AzureAD)経由、Azure サービスプリンシパル(AzureServicePrincipal またはAzureServicePrincipalCert)経由、およびManaged Service Identity(AzureMSI)経由です。

    アクセスキー

    アクセスキーを使用して接続するには、まずADLS Gen2ストレージアカウントで利用可能なアクセスキーを取得する必要があります。

    Azure ポータルでの手順は以下のとおりです:

    1. ADLS Gen2ストレージアカウントにアクセスします
    2. 設定でアクセスキーを選択します
    3. 利用可能なアクセスキーの1つの値をAccessKey 接続プロパティにコピーします

    接続の準備ができたら、以下のプロパティを設定してください。

    • AuthSchemeAccessKey
    • AccessKey:先ほどAzure ポータルで取得したアクセスキーの値

    共有アクセス署名(SAS)

    共有アクセス署名を使用して接続するには、まずAzure Storage Explorer ツールを使用して署名を生成する必要があります。

    接続の準備ができたら、以下のプロパティを設定してください。

    • AuthSchemeSAS
    • SharedAccessSignature:先ほど生成した共有アクセス署名の値

    その他の認証方法については、 href="/kb/help/" target="_blank">ヘルプドキュメントの「Azure Data Lake Storage Gen2への認証」セクションをご確認ください。

  6. 接続情報の入力が完了したら、「保存およびテスト」をクリックします。

Azure Data Lake Storage 接続プロパティの取得・設定方法

Azure Data Lake Storage Gen2 への接続

それでは、Gen2 Data Lake Storage アカウントに接続していきましょう。接続するには、以下のプロパティを設定します。

  • Account:ストレージアカウントの名前
  • FileSystem:このアカウントに使用されるファイルシステム名。例えば、Azure Blob コンテナの名前
  • Directory(オプション):レプリケートされたファイルが保存される場所へのパス。パスが指定されない場合、ファイルはルートディレクトリに保存されます

Azure Data Lake Storage Gen2への認証

続いて、認証方法を設定しましょう。CData 製品では、5つの認証方法をサポートしています:アクセスキー(AccessKey)の使用、共有アクセス署名(SAS)の使用、Azure Active Directory OAuth(AzureAD)経由、Azure サービスプリンシパル(AzureServicePrincipal またはAzureServicePrincipalCert)経由、およびManaged Service Identity(AzureMSI)経由です。

アクセスキー

アクセスキーを使用して接続するには、まずADLS Gen2ストレージアカウントで利用可能なアクセスキーを取得する必要があります。

Azure ポータルでの手順は以下のとおりです:

  1. ADLS Gen2ストレージアカウントにアクセスします
  2. 設定でアクセスキーを選択します
  3. 利用可能なアクセスキーの1つの値をAccessKey 接続プロパティにコピーします

接続の準備ができたら、以下のプロパティを設定してください。

  • AuthSchemeAccessKey
  • AccessKey:先ほどAzure ポータルで取得したアクセスキーの値

共有アクセス署名(SAS)

共有アクセス署名を使用して接続するには、まずAzure Storage Explorer ツールを使用して署名を生成する必要があります。

接続の準備ができたら、以下のプロパティを設定してください。

  • AuthSchemeSAS
  • SharedAccessSignature:先ほど生成した共有アクセス署名の値

その他の認証方法については、 href="/kb/help/" target="_blank">ヘルプドキュメントの「Azure Data Lake Storage Gen2への認証」セクションをご確認ください。

API Server のユーザー設定

次に、API Server 経由でAzure Data Lake Storage にアクセスするユーザーを作成します。「Users」ページでユーザーを追加・設定できます。やってみましょう。

  1. 「Users」ページで ユーザーを追加をクリックすると、「ユーザーを追加」ポップアップが開きます。
  2. 次に、「ロール」、「ユーザー名」、「権限」プロパティを設定し、「ユーザーを追加」をクリックします。
  3. その後、ユーザーの認証トークンが生成されます。各ユーザーの認証トークンとその他の情報は「Users」ページで確認できます。

Azure Data Lake Storage 用のAPI エンドポイントの作成

ユーザーを作成したら、Azure Data Lake Storage のデータ用のAPI エンドポイントを作成していきます。

  1. まず、「API」ページに移動し、 「 テーブルを追加」をクリックします。
  2. アクセスしたい接続を選択し、次へをクリックします。
  3. 接続を選択した状態で、各テーブルを選択して確認をクリックすることでエンドポイントを作成します。

OData のエンドポイントを取得

以上でAzure Data Lake Storage への接続を設定してユーザーを作成し、API Server でAzure Data Lake Storage データのAPI を追加しました。これで、OData 形式のAzure Data Lake Storage データをREST API で利用できます。API Server の「API」ページから、API のエンドポイントを表示およびコピーできます。

外部Azure Data Lake Storage のデータでデータビジュアライゼーションを作成する

  1. Spotfire を開き、「Add Data Tables」->「OData」をクリックします。
  2. 「OData Connection」ダイアログで、以下の情報を入力します。
    • Service URL:API Server のOData エンドポイントを入力します。例:
      http://localhost:8032/api.rsc
    • Authentication Method:Username とPassword を選択します。
    • Username:API Server ユーザーのユーザー名を入力します。管理コンソールの「Security」タブでAPI ユーザーを作成できます。
    • Password:API Server でユーザーの認証トークンを入力します。
    Required connection settings to connect to the API Server.
  3. ダッシュボードに追加するテーブルとカラムを選択します。この例ではResources を使います。 API Server API Entities.(Salesforce is shown.)
  4. リアルタイムデータを使いたい場合は、「Keep Data Table External」オプションをクリックします。このオプションは、データの変更をリアルタイムでダッシュボードに反映します。

    データをメモリにロードしてローカルで処理したい場合は、「Import Data Table」オプションをクリックします。このオプションは、オフラインでの使用、またはネットワーク接続が遅くダッシュボードとのやり取りが遅延する場合に適しています。

  5. テーブルを追加すると「Recommended Visualizations」ウィザードが表示されます。テーブルを選択すると、Spotfire はカラムのデータ型を使ってnumber、time、category カラムを検出します。この例ではNumbers セクションでPermission を、Categories セクションでFullPath を使用しています。Recommended visualizations for the imported data table.(Salesforce is shown.)

[Recommended Visualizations]ウィザードでいくつかビジュアライズを作成したら、ダッシュボードにその他の修正を加えることができ、例えばフィルタを適用できます。「Filter」ボタンをクリックすると、各クエリで使用可能なフィルタが「Filters」ペインに表示されます。

はじめる準備はできましたか?

詳細はこちら、または無料トライアルにお申し込みください:

CData API Server お問い合わせ