Databricks(AWS)でAct-On のデータを処理・分析

Jerod Johnson
Jerod Johnson
Senior Technology Evangelist
CData、AWS、Databricks を使用して、リアルタイムAct-On のデータに対してデータエンジニアリングとデータサイエンスを実行。

Databricks は、Apache Spark を通じたデータ処理機能を提供するクラウドベースのサービスです。CData JDBC Driver と組み合わせることで、Databricks を使用してリアルタイムAct-On のデータに対してデータエンジニアリングとデータサイエンスを実行できます。この記事では、AWS でCData JDBC Driver をホストし、Databricks でリアルタイムAct-On のデータに接続して処理する方法を説明します。

最適化されたデータ処理が組み込まれたCData JDBC Driver は、リアルタイムAct-On のデータを扱う上で比類のないパフォーマンスを提供します。Act-On に複雑なSQL クエリを発行すると、ドライバーはフィルタや集計などのサポートされているSQL 操作をAct-On に直接プッシュし、サポートされていない操作(主にSQL 関数やJOIN 操作)は組み込みSQL エンジンを利用してクライアント側で処理します。組み込みの動的メタデータクエリを使用すると、ネイティブデータ型を使ってAct-On のデータを操作・分析できます。

CData JDBC Driver をDatabricks にインストール

Databricks でリアルタイムAct-On のデータを操作するには、Databricks クラスターにドライバーをインストールします。

  1. Databricks の管理画面に移動し、対象のクラスターを選択します。
  2. Libraries タブで「Install New」をクリックします。
  3. Library Source として「Upload」を選択し、Library Type として「Jar」を選択します。
  4. インストール場所(通常はC:\Program Files\CData[product_name]\lib)からJDBC JAR ファイル(cdata.jdbc.acton.jar)をアップロードします。

ノートブックでAct-On のデータにアクセス:Python

JAR ファイルをインストールしたら、Databricks でリアルタイムAct-On のデータを操作する準備が整いました。ワークスペースに新しいノートブックを作成します。ノートブックに名前を付け、言語としてPython を選択し(Scala も利用可能)、JDBC ドライバーをインストールしたクラスターを選択します。ノートブックが起動したら、接続を設定し、Act-On をクエリして、基本的なレポートを作成できます。

Act-On への接続を設定

JDBC Driver クラスを参照し、JDBC URL で使用する接続文字列を構築してAct-On に接続します。また、JDBC URL でRTK プロパティを設定する必要があります(Beta ドライバーを使用している場合を除く)。このプロパティの設定方法については、インストールに含まれるライセンスファイルを参照してください。

ステップ1:接続情報

driver = "cdata.jdbc.acton.ActOnDriver"
url = "jdbc:acton:RTK=5246...;"

組み込みの接続文字列デザイナー

JDBC URL の作成をサポートするために、Act-On JDBC Driver に組み込まれている接続文字列デザイナーが使用できます。JAR ファイルをダブルクリックするか、コマンドラインからJAR ファイルを実行します。

java -jar cdata.jdbc.acton.jar

接続プロパティを入力し、接続文字列をクリップボードにコピーします。

ActOn はOAuth 認証標準を利用しています。OAuth を使って認証するには、アプリケーションを作成してOAuthClientIdOAuthClientSecret、およびCallbackURL 接続プロパティを取得する必要があります。

認証方法についての詳細は、ヘルプドキュメントの「認証の使用」を参照してください。

Act-On のデータをロード

接続を設定したら、CData JDBC Driver と接続情報を使用して、Act-On のデータをDataFrame としてロードできます。

ステップ2:データの読み取り

remote_table = spark.read.format ( "jdbc" ) \
	.option ( "driver" , driver) \
	.option ( "url" , url) \
	.option ( "dbtable" , "Images") \
	.load ()

Act-On のデータを表示

ロードしたAct-On のデータをdisplay 関数を呼び出して確認します。

ステップ3:結果の確認

display (remote_table.select ("Id"))

Databricks でAct-On のデータを分析

Databricks SparkSQL でデータを処理するには、ロードしたデータをTemp View として登録します。

ステップ4:ビューまたはテーブルを作成

remote_table.createOrReplaceTempView ( "SAMPLE_VIEW" )

Temp View を作成したら、SparkSQL を使用してAct-On のデータをレポート、ビジュアライゼーション、分析用に取得できます。

% sql

SELECT Id, Name FROM SAMPLE_VIEW ORDER BY Name DESC LIMIT 5

Act-On からのデータは、対象のノートブックでのみ利用可能です。他のユーザーと共有したい場合は、テーブルとして保存します。

remote_table.write.format ( "parquet" ) .saveAsTable ( "SAMPLE_TABLE" )

CData JDBC Driver for Act-On の30日間無償トライアルをダウンロードして、Databricks でリアルタイムAct-On のデータの操作をはじめましょう。ご不明な点があれば、サポートチームにお問い合わせください。

はじめる準備はできましたか?

Act-On Driver の無料トライアルをダウンロードしてお試しください:

 ダウンロード

詳細:

Act-On Icon Act-On JDBC Driver お問い合わせ

驚くほど簡単にJDBC でJava アプリケーションにAct-On マーケティングオートメーションのCampaigns、Programs、Reports データを連携!