Azure Blob Storage からデータをインポートするための接続を Anaplan Data Orchestrator で作成します。次に、その接続を使用してデータを抽出し、ソース データセットを作成します。

接続を作成する前に、次のものが必要です。

  • Azure Blob Storage でホストされているストレージ アカウント
  • Azure Blob Storage アカウント名、コンテナ名、エンドポイント URL (省略可) が設定されており、少なくともバケットとオブジェクトに対する読み取り権限を持っているユーザー
  • 認証方法次のいずれかを使用できます。
    • ストレージ アカウント キー:この方法で接続するには、Azure シークレット キーが必要です。
    • OAuth:この方法で接続するには、クライアント ID、クライアント シークレット、Azure テナント ID、リフレッシュ トークンが必要です。
  • コンテナのサブセットへのフォルダー パス

CSV ファイルを Data Orchestrator に読み込むには、UTF-8 でエンコードされている必要があります。

Azure Blob Storage データを Data Orchestrator に接続するには、Azure Blob Storage 認証情報が必要です。認証情報の詳細については、Azure Blob Storage のドキュメントを参照してください。

接続を作成するには以下を実行します。

  1. 左上のナビゲーション メニューから [Data Orchestrator] を選択します。
  2. リストからデータスペースを選択します。
  3. 左側のパネルから [Connections] を選択します。
  4. [Create connection] を選択します。
  5. [Azure Blob Storage] を選択してから [Next] を選択します。
    コネクターが見つからない場合は、[Find...] フィールドに検索ワードを入力します。
  6. [Connection details] ページで次の詳細を入力し、[Next] を選択します。
    • Name (名前):接続の名前を作成します。名前には英数字とアンダースコアを使用できます。
    • Description (説明):接続に関する説明を入力します。
  7. [Connection credential] ページで Azure Blob の認証情報を入力し、[Next] を選択します。
    このページのフィールドの詳細については、「Azure Blob Storage 接続の認証オプション」を参照してください。
  8. 接続テストが完了したら、[Done] を選択します。

Azure Blob 接続からデータを抽出して、ソース データを Data Orchestrator に追加できます。抽出したデータから、ソース データセットを作成します。

データを抽出するには以下を実行します。

  1. 左上のナビゲーション メニューから [Data Orchestrator] を選択します。
  2. リストからデータスペースを選択します。
  3. 左側のパネルから [Source data] を選択します。
  4. [Add data] → [From connection] を選択します。
  5. [Dataset details] ページで次の詳細を入力し、[Next] を選択します。
    • Connection (接続):既存の接続を選択します。
    • Dataset name (データセット名):データセットの名前を入力します。
    • Description (説明):必要に応じて、データセットの説明を入力します。
    • Path name (パス名):ファイル パス パターンを指定します (デフォルト: /**/*.csv) (以下の「Azure Blob データ抽出のパス名」セクションの追加情報を参照してください)。
    • Column separator (列の区切り文字):次のオプションから区切り文字を選択します:[Tab]、[Comma]、[Semicolon]、[Other]。[Other] を選択した場合はカスタム区切り文字を指定します。
    • Text Delimiter (テキストの区切り文字):CSV 内のテキストを囲むために使用する文字を指定します (例: ")。
    • Header Row (ヘッダー列):ヘッダーが配置される行番号を指定します (例: 1)。
    • First Data Row (データの一行目):実際のデータが始まる行番号を指定します (例: 2)。
  6. [Choose an upload type] ページで次の詳細を入力し、[Next] を選択します。
    1. [Load type] を選択します。
      • Full replace (完全置換):現在読み込まれているデータを新しいデータに完全に置換します。
      • Append (追加):新しいデータを現在のテーブルの末尾に追加します。
      • Incremental (増分):データを取得し、以前に読み込まれた内容の増分を更新します。
    2. インポートする列を選択します。
      • 読み込みタイプとして [Incremental] を選択した場合、[Primary Key (PK)] は必須です。システムでは PK を使用して既存のレコードを識別および更新します。[Cursor Field] が自動的に選択され、パターンに一致するファイルの最終更新日が表示されます。これにより、新しいファイル又は更新されたファイルのみが同期に含まれるようになります。
      • 読み込みタイプとして [Append] を選択した場合、システムでは自動的に [Cursor Field] を選択します。したがって、設定する必要はありません。これにより、新しいデータをシームレスに追加し、同期を維持できます。
  7. 確認ダイアログで [Create] を選択します。

データを Azure Blob 接続から抽出する際に、パス名の入力が求められます。コンテナに同じファイル名パターンのファイルが含まれている場合は、「*.CSV」と入力して、同じファイル名パターンのすべてのファイルをアップロードできます。

コンテナの名前が SALES_DATA で、SALES_wk01.CSVSALES_wk02.CSVSALES_wk03.CSV というファイルがあります。[Path name]に「Sales_Files/Sales_*.CSV」と入力すると、三つのファイルすべてが Data Orchestrator にアップロードされます。 

後で同じファイル名パターンでさらにファイルをバケットに追加する場合は、データを同期して新しいファイルをアップロードできます。