DataGrip で Spark のデータ をクエリ

Jerod Johnson
Jerod Johnson
Senior Technology Evangelist
DataGrip で Spark のデータソースを作成し、SQL を使用してリアルタイムSpark のデータをクエリ。

DataGrip は、SQL 開発者がデータベースへのクエリ、作成、管理を行えるデータベース IDE です。CData JDBC Driver for Apache Spark と組み合わせることで、DataGrip からリアルタイムSpark のデータを操作できます。この記事では、DataGrip で Spark のデータ への接続を確立し、テーブルエディタを使用して Spark のデータ を読み込む方法を説明します。

Spark 用の新しいドライバー定義を作成

以下のステップでは、DataGrip で Spark 用の新しいデータソースを作成する方法を説明します。

  1. DataGrip で、File -> New -> Project をクリックしてプロジェクト名を入力します。
  2. Database Explorer で、プラスアイコン()をクリックして Driver を選択します。
  3. Driver タブで以下を設定します。
    • Name をわかりやすい名前に設定します(例:"CData Spark Driver")。
    • Driver Files を適切な JAR ファイルに設定します。ファイルを追加するには、プラス()をクリックし、「Add Files」を選択して、ドライバーのインストールディレクトリ内の「lib」フォルダに移動し、JAR ファイル(例:cdata.jdbc.sparksql.jar)を選択します。
    • Class を cdata.jdbc.sparksql.SparkSQL.jar に設定します。
    また、詳細タブでは、ドライバーのプロパティや、VM Options、VM environment、VM home path、DBMS などの設定を変更できます。
    • ほとんどの場合、Expert optionsDBMS type を「Unknown」に変更して、ネイティブの SQL Server クエリ(Transact-SQL)を回避してください。これを行わないと、無効な関数エラーが発生する可能性があります。
  4. 「Apply」をクリックし、「OK」をクリックして接続を保存します。

Spark への接続を設定

  1. 接続を保存したら、プラス()をクリックし、「Data Source」→「CData Spark Driver」を選択して、新しい Spark データソースを作成します。
  2. 新しいウィンドウで、JDBC URL を使用して Spark への接続を設定します。

    組み込みの接続文字列デザイナー

    JDBC URL の構築には、Spark JDBC Driver に組み込まれている接続文字列デザイナーを使用してください。JAR ファイルをダブルクリックするか、コマンドラインから JAR ファイルを実行します。

          java -jar cdata.jdbc.sparksql.jar
        

    接続プロパティを入力し、接続文字列をクリップボードにコピーします。

    SparkSQL への接続

    SparkSQL への接続を確立するには以下を指定します。

    • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
    • Port:SparkSQL インスタンスへの接続用のポートに設定。
    • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
    • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

    Databricks への接続

    Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。

    • Server:Databricks クラスターのサーバーのホスト名に設定。
    • Port:443
    • TransportMode:HTTP
    • HTTPPath:Databricks クラスターのHTTP パスに設定。
    • UseSSL:True
    • AuthScheme:PLAIN
    • User:'token' に設定。
    • Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。
  3. URL を接続文字列に設定します。例:
    jdbc:sparksql:Server=127.0.0.1;
  4. 「Apply」と「OK」をクリックして接続文字列を保存します。

これで、Data Explorer にデータソースが表示されます。

Spark に対して SQL クエリを実行

JDBC Driver を介してアクセス可能な Spark のエンティティ(テーブルとして利用可能)を参照するには、データソースを展開します。

クエリを実行するには、任意のテーブルを右クリックして「New」→「Query Console」を選択します。

Console で、実行したい SQL クエリを記述します。例:

SELECT City, Balance FROM Customers

CData JDBC Driver for Apache Spark の30日間の無料トライアルをダウンロードして、DataGrip でリアルタイムSpark のデータを操作してみてください。ご不明な点があれば、サポートチームにお問い合わせください。

はじめる準備はできましたか?

Apache Spark Driver の無料トライアルをダウンロードしてお試しください:

 ダウンロード

詳細:

Apache Spark Icon Apache Spark JDBC Driver お問い合わせ

Apache Spark 連携のパワフルなJava アプリケーションを素早く作成して配布。