Databricksボリューム
接続タイプ | ODBC (64ビット) |
ドライバー設定要件 | ホストはDatabricks Unity CatalogクラスターJDBC/ODBCサーバーのホスト名である必要があります。 |
サポートのタイプ | インデータベース書き込み |
検証済み | DatabricksクラスターおよびSQLウェアハウス、Simba Apache Sparkドライバー2.6.23.1039 |
ドライバーの詳細
インデータベース処理には、64ビットのデータベースドライバが必要です。
接続に使用する Alteryx ツール
インデータベースのワークフロー処理
注意
Databricksボリュームは、DCM使用時のみサポートされます。
Databricksボリュームは、DSNレス接続使用時のみサポートされます。
Databricksボリュームは、Unity Catalogでのみサポートされます。
Databricks Unity Catalogへの書き込みは、In-DBツール を使用する場合のみサポートされています。
Alteryxは、Databricks Unity Catalog用のMergeInDBをサポートしています。データ書込In-DBツールを参照してください。
When outputting datetime field with Databricks UC Volumes Bulk Loader, field is output as UTC. To accommodate for this, please either use the Formula tool to adjust the time shift or convert field to string.
In-DB接続の設定
[In-DB接続の管理]ウィンドウを開きます。
[データソース]ドロップダウンで[Databricks Unity Catalog]を選択します。
[新規] を選択して新しい接続を作成します。
接続名を入力します。
[読み取り] タブで [接続セットアップ] を選択して、Databricks Unity CatalogのDCM接続マネージャーを開きます。DCM接続マネージャーは、Simba Databricks Unity Catalog経由Apache Spark ODBC DSNレス 接続のみを表示するように事前にフィルタリングされています。
既存の接続を選択するか、[+新規] を選択して新しい接続を作成します。DCMを使用して新しい接続を設定するには、Databricks Unity Catalogを参照してください。
[書き込み]タブで、ドロップダウンから[Databricks UC Volumesバルクローダー(Avro)]を選択します。
[接続セットアップ]を選択して、Databricks接続のDCM接続マネージャーを開きます。DCM接続マネージャーは、[Databricks UC Volumes経由Apache Spark ODBCバルクDSNレス]接続のみを表示するように事前にフィルタリングされています。
既存の接続を選択するか、[+新規] を選択して新しい接続を作成します。DCMを使用して新しい接続を設定する方法については、以下を参照してください
[適用] と [OK] を選択して接続を保存し、ウィンドウを閉じます。
[In-DB接続の管理]に接続In-DBツールからアクセスした場合は、[テーブルの選択またはクエリを指定]ウィンドウが読み込まれ、テーブルを選択できます。
DCMでDatabricks UC Volumes経由Apache Spark ODBCバルクDSNレスを設定する
この接続は、ボリュームのステージングを使用したDatabricks Unity Catalogへのデータ書き込みに使用されます。
[データ接続マネージャー]を開き、[Databricks UC Volumes経由Apache Spark ODBCバルクDSNレス]に移動します。
- 入力ツールまたは[In-DB接続の管理]から、DCMは事前にフィルタリングされています。
- [ファイル]メニューから、[ファイル] > [接続を管理] > [+新規] > [Apache Spark] > [Databricks UC Volumes経由Apache Spark ODBCバルクDSNレス]の順に移動します。
データソース名 を入力します。
Databricks Unity Catalogのホスト 名を入力します。
既定ではポートは443に設定されます。必要に応じて変更します。
httpパスを入力します。httpパスは、DatabricksコンピューティングリソースのURLです。
カタログ を入力します。これにより、データの書き込みとテーブルの作成に使用するカタログが設定されます。
スキーマ を入力します。これにより、データの書き込みとテーブルの作成に使用するスキーマが設定されます。
Databricksボリュームのフルパスを、/Volumes/<catalog>/<schema>/<volume>/<path/to/folder>の形式で入力します。
[保存] を選択して、データソースを保存します。
[+資格情報の接続] を選択して、資格情報を追加します。
[認証方法] を選択します。
個人のアクセストークンを使用するには、認証方法に[ユーザー名とパスワード]を選択し、ユーザー名を「トークン」にします。
Azure ADを使用するには、「Databricks Azure OAuth認証」を参照してください。
[既存の資格情報] を選択する か、[新しい資格情報の作成] を選択して新しい資格情報を作成し、個人のアクセストークンまたはAzure ADの情報を入力します。
[リンク] を選択して、資格情報をデータソースにリンクします。
接続を選択します。