HDFS:
Apache Hadoop 分散ファイルシステム(HDFS)は、Hadoop クラスタの複数のノードにわたって大量の データ を保存および管理するように設計された分散ファイルシステムです。ビッグデータ の保存と処理のために、高可用性、耐障害性、スケーラビリティを提供します。HDFS は Apache Hadoop エコシステムの重要なコンポーネントです。
Amazon S3:
Amazon S3(Simple Storage Service)は、Amazon Web Services が提供する安全で耐久性が高く、スケーラブルなクラウドストレージソリューションです。ユーザーはウェブ上のどこからでも任意の量のデータを保存・取得できます。高可用性と低レイテンシーにより、S3 は大量のデータの保存と管理に理想的です。
CData Sync で HDFS と Amazon S3 を統合
CData Sync を使えば、Apache HDFS データをデータベース・データレイク・データウェアハウスに継続的にレプリケーションし、分析・レポート・AI・機械学習にすぐ活用できます。
- Amazon S3 をはじめ、主要なデータベース・データウェアハウスにノーコードでデータを同期できます。
- HDFS データを主要なデータベース・データウェアハウスに自動レプリケートし、運用レポートや BI・分析に活用できます。
- HDFS へのクエリをオフロードすることで、負荷を軽減しパフォーマンスを向上させます。
- HDFS をビジネス分析ツールと連携し、BI や意思決定を支援します。
- Apache HDFS データをアーカイブし、ディザスタリカバリに備えます。
HDFS を Amazon S3 と統合
HDFS データ統合機能
複雑なコードやセットアップは不要。短時間でより多くのデータを移動できます。HDFS を任意の同期先に簡単に接続できます。
増分更新と自動スキーマレプリケーションにより、HDFS データ統合の手間が省け、Amazon S3 には常に最新データが保持されます。
予測可能で透明性の高い料金体系で、必要なすべてのデータをレプリケート。HDFS と Amazon S3 の間で無制限にレプリケーションできます。
その他の HDFS データ統合ツール
HDFS からサポートされている任意のデータストアにデータを統合・レプリケートするデータパイプラインを簡単に作成できます: