Airflowで動的ワークフローを作成する適切な方法


96

問題

タスクAが完了するまでタスクB. *の数が不明になるようなワークフローをAirflowで作成する方法はありますか?サブダグを確認しましたが、ダグの作成時に決定する必要がある一連の静的タスクでしか機能しないようです。

ダグトリガーは機能しますか?もしそうなら、あなたは例を提供してください。

タスクAが完了するまで、タスクCを計算するために必要なタスクBの数を知ることができないという問題があります。各タスクB. *の計算には数時間かかり、組み合わせることはできません。

              |---> Task B.1 --|
              |---> Task B.2 --|
 Task A ------|---> Task B.3 --|-----> Task C
              |       ....     |
              |---> Task B.N --|

アイデア#1

ブロッキングExternalTask​​Sensorを作成する必要があり、すべてのタスクB. *が完了するまでに2〜24時間かかるため、このソリューションは好きではありません。だから私はこれを実行可能な解決策とは考えていません。確かにもっと簡単な方法がありますか?または、Airflowはこのために設計されていませんでしたか?

Dag 1
Task A -> TriggerDagRunOperator(Dag 2) -> ExternalTaskSensor(Dag 2, Task Dummy B) -> Task C

Dag 2 (Dynamically created DAG though python_callable in TriggerDagrunOperator)
               |-- Task B.1 --|
               |-- Task B.2 --|
Task Dummy A --|-- Task B.3 --|-----> Task Dummy B
               |     ....     |
               |-- Task B.N --|

編集1:

現在のところ、この質問にはまだ大きな答えがありません。解決策を探している数人から連絡を受けました。


ループで作成できるという点で、すべてのタスクB *は似ていますか?
ダニエルリー

はい、タスクAが完了すると、すべてのB. *タスクをループ内ですばやく作成できます。タスクAの完了には約2時間かかります。
costrouc 2017年

問題の解決策を見つけましたか?投稿してもよろしいですか?
Daniel Dubovski、

3
:アイデア#1のための便利なリソースlinkedin.com/pulse/...
フアンRiazaの

1
ここで私はこれを行う方法を説明書いた記事だlinkedin.com/pulse/dynamic-workflows-airflow-kyle-bridenstineは
カイルBridenstine

回答:


30

以下は、サブダグのない同様のリクエストでそれをどのように実行したかです。

まず、必要な値を返すメソッドを作成します

def values_function():
     return values

ジョブを動的に生成する次のcreateメソッド:

def group(number, **kwargs):
        #load the values if needed in the command you plan to execute
        dyn_value = "{{ task_instance.xcom_pull(task_ids='push_func') }}"
        return BashOperator(
                task_id='JOB_NAME_{}'.format(number),
                bash_command='script.sh {} {}'.format(dyn_value, number),
                dag=dag)

そしてそれらを組み合わせる:

push_func = PythonOperator(
        task_id='push_func',
        provide_context=True,
        python_callable=values_function,
        dag=dag)

complete = DummyOperator(
        task_id='All_jobs_completed',
        dag=dag)

for i in values_function():
        push_func >> group(i) >> complete

値はどこで定義されますか?
修道士

11
代わりにfor i in values_function()私はのようなものを期待しますfor i in push_func_output。問題は、その出力を動的に取得する方法が見つからないことです。PythonOperatorの出力は実行後Xcomにありますが、DAG定義から参照できるかどうかはわかりません。
恵那

@エナそれを達成する方法を見つけましたか?
eldos

1
@eldosは以下の私の回答を参照
Ena

1
ループ内で一連のステップ依存ステップを実行する必要がある場合はどうなりますか?group関数内に2番目の依存関係チェーンがありますか?
CodingInCircles

12

以前のタスクの結果に基づいてワークフローを作成する方法を見つけました。
基本的にあなたがしたいことは次の2つのサブダグを持っていることです:

  1. Xcomは、最初に実行されるサブダグにリスト(または後で動的ワークフローを作成するために必要なもの)をプッシュします(test1.pyを参照def return_list()
  2. メインDAGオブジェクトをパラメーターとして2番目のサブDAGに渡します
  3. これで、メインのdagオブジェクトがある場合、それを使用してタスクインスタンスのリストを取得できます。タスクインスタンスのそのリストから、parent_dag.get_task_instances(settings.Session, start_date=parent_dag.get_active_runs()[-1])[-1])を使用して現在の実行のタスクをフィルターで除外できます。おそらくここにフィルターを追加できます。
  4. そのタスクインスタンスでは、xcom pullを使用して、dag_idを最初のサブダグの1つに指定することで、必要な値を取得できます。 dag_id='%s.%s' % (parent_dag_name, 'test1')
  5. リスト/値を使用してタスクを動的に作成する

今、私はこれを私のローカル気流設備でテストしました、そしてそれはうまく働きます。同時に実行されているDAGのインスタンスが複数ある場合にxcomのプルパーツに問題があるかどうかはわかりませんが、一意のキーなどを使用してxcomを一意に識別します。あなたが望む値。現在のメインDAGの特定のタスクを確実に取得するために、3。ステップを100%確実に最適化することもできますが、私の使用では十分に機能し、xcom_pullを使用するために必要なtask_instanceオブジェクトは1つだけだと思います。

また、誤って間違った値を取得しないように、すべての実行前に最初のサブダグのxcomをクリーンアップします。

私は説明がかなり苦手なので、次のコードですべてが明確になることを願っています。

test1.py

from airflow.models import DAG
import logging
from airflow.operators.python_operator import PythonOperator
from airflow.operators.postgres_operator import PostgresOperator

log = logging.getLogger(__name__)


def test1(parent_dag_name, start_date, schedule_interval):
    dag = DAG(
        '%s.test1' % parent_dag_name,
        schedule_interval=schedule_interval,
        start_date=start_date,
    )

    def return_list():
        return ['test1', 'test2']

    list_extract_folder = PythonOperator(
        task_id='list',
        dag=dag,
        python_callable=return_list
    )

    clean_xcoms = PostgresOperator(
        task_id='clean_xcoms',
        postgres_conn_id='airflow_db',
        sql="delete from xcom where dag_id='{{ dag.dag_id }}'",
        dag=dag)

    clean_xcoms >> list_extract_folder

    return dag

test2.py

from airflow.models import DAG, settings
import logging
from airflow.operators.dummy_operator import DummyOperator

log = logging.getLogger(__name__)


def test2(parent_dag_name, start_date, schedule_interval, parent_dag=None):
    dag = DAG(
        '%s.test2' % parent_dag_name,
        schedule_interval=schedule_interval,
        start_date=start_date
    )

    if len(parent_dag.get_active_runs()) > 0:
        test_list = parent_dag.get_task_instances(settings.Session, start_date=parent_dag.get_active_runs()[-1])[-1].xcom_pull(
            dag_id='%s.%s' % (parent_dag_name, 'test1'),
            task_ids='list')
        if test_list:
            for i in test_list:
                test = DummyOperator(
                    task_id=i,
                    dag=dag
                )

    return dag

そして主なワークフロー:

test.py

from datetime import datetime
from airflow import DAG
from airflow.operators.subdag_operator import SubDagOperator
from subdags.test1 import test1
from subdags.test2 import test2

DAG_NAME = 'test-dag'

dag = DAG(DAG_NAME,
          description='Test workflow',
          catchup=False,
          schedule_interval='0 0 * * *',
          start_date=datetime(2018, 8, 24))

test1 = SubDagOperator(
    subdag=test1(DAG_NAME,
                 dag.start_date,
                 dag.schedule_interval),
    task_id='test1',
    dag=dag
)

test2 = SubDagOperator(
    subdag=test2(DAG_NAME,
                 dag.start_date,
                 dag.schedule_interval,
                 parent_dag=dag),
    task_id='test2',
    dag=dag
)

test1 >> test2

Airflow 1.9では、DAGフォルダーに追加してもこれらが読み込まれませんでした。何か不足していますか?
Anthony Keane

@AnthonyKeane test1.pyとtest2.pyをdagフォルダーのsubdagsというフォルダーに配置しましたか?
クリストフ・ベック

はい。両方のファイルをサブdagにコピーしてtest.pyをdagフォルダーに配置しても、このエラーが発生します。壊れたDAG:[/home/airflow/gcs/dags/test.py] subdags.test1という名前のモジュールはありません注:Google Cloud Composer(Googleの管理対象Airflow 1.9.0)を使用しています
Anthony Keane

@AnthonyKeaneは、これがログに表示される唯一のエラーですか?DAGの破損は、サブエラーにコンパイルエラーがあることが原因である可能性があります。
クリストファーベック

3
こんにちは@Christopher Beck私_ _init_ _.pyはsubdagsフォルダーに追加する必要がある私の間違いを見つけました。新人エラー
アンソニーキーン

8

はい、可能です。これを示すサンプルDAGを作成しました。

import airflow
from airflow.operators.python_operator import PythonOperator
import os
from airflow.models import Variable
import logging
from airflow import configuration as conf
from airflow.models import DagBag, TaskInstance
from airflow import DAG, settings
from airflow.operators.bash_operator import BashOperator

main_dag_id = 'DynamicWorkflow2'

args = {
    'owner': 'airflow',
    'start_date': airflow.utils.dates.days_ago(2),
    'provide_context': True
}

dag = DAG(
    main_dag_id,
    schedule_interval="@once",
    default_args=args)


def start(*args, **kwargs):

    value = Variable.get("DynamicWorkflow_Group1")
    logging.info("Current DynamicWorkflow_Group1 value is " + str(value))


def resetTasksStatus(task_id, execution_date):
    logging.info("Resetting: " + task_id + " " + execution_date)

    dag_folder = conf.get('core', 'DAGS_FOLDER')
    dagbag = DagBag(dag_folder)
    check_dag = dagbag.dags[main_dag_id]
    session = settings.Session()

    my_task = check_dag.get_task(task_id)
    ti = TaskInstance(my_task, execution_date)
    state = ti.current_state()
    logging.info("Current state of " + task_id + " is " + str(state))
    ti.set_state(None, session)
    state = ti.current_state()
    logging.info("Updated state of " + task_id + " is " + str(state))


def bridge1(*args, **kwargs):

    # You can set this value dynamically e.g., from a database or a calculation
    dynamicValue = 2

    variableValue = Variable.get("DynamicWorkflow_Group2")
    logging.info("Current DynamicWorkflow_Group2 value is " + str(variableValue))

    logging.info("Setting the Airflow Variable DynamicWorkflow_Group2 to " + str(dynamicValue))
    os.system('airflow variables --set DynamicWorkflow_Group2 ' + str(dynamicValue))

    variableValue = Variable.get("DynamicWorkflow_Group2")
    logging.info("Current DynamicWorkflow_Group2 value is " + str(variableValue))

    # Below code prevents this bug: https://issues.apache.org/jira/browse/AIRFLOW-1460
    for i in range(dynamicValue):
        resetTasksStatus('secondGroup_' + str(i), str(kwargs['execution_date']))


def bridge2(*args, **kwargs):

    # You can set this value dynamically e.g., from a database or a calculation
    dynamicValue = 3

    variableValue = Variable.get("DynamicWorkflow_Group3")
    logging.info("Current DynamicWorkflow_Group3 value is " + str(variableValue))

    logging.info("Setting the Airflow Variable DynamicWorkflow_Group3 to " + str(dynamicValue))
    os.system('airflow variables --set DynamicWorkflow_Group3 ' + str(dynamicValue))

    variableValue = Variable.get("DynamicWorkflow_Group3")
    logging.info("Current DynamicWorkflow_Group3 value is " + str(variableValue))

    # Below code prevents this bug: https://issues.apache.org/jira/browse/AIRFLOW-1460
    for i in range(dynamicValue):
        resetTasksStatus('thirdGroup_' + str(i), str(kwargs['execution_date']))


def end(*args, **kwargs):
    logging.info("Ending")


def doSomeWork(name, index, *args, **kwargs):
    # Do whatever work you need to do
    # Here I will just create a new file
    os.system('touch /home/ec2-user/airflow/' + str(name) + str(index) + '.txt')


starting_task = PythonOperator(
    task_id='start',
    dag=dag,
    provide_context=True,
    python_callable=start,
    op_args=[])

# Used to connect the stream in the event that the range is zero
bridge1_task = PythonOperator(
    task_id='bridge1',
    dag=dag,
    provide_context=True,
    python_callable=bridge1,
    op_args=[])

DynamicWorkflow_Group1 = Variable.get("DynamicWorkflow_Group1")
logging.info("The current DynamicWorkflow_Group1 value is " + str(DynamicWorkflow_Group1))

for index in range(int(DynamicWorkflow_Group1)):
    dynamicTask = PythonOperator(
        task_id='firstGroup_' + str(index),
        dag=dag,
        provide_context=True,
        python_callable=doSomeWork,
        op_args=['firstGroup', index])

    starting_task.set_downstream(dynamicTask)
    dynamicTask.set_downstream(bridge1_task)

# Used to connect the stream in the event that the range is zero
bridge2_task = PythonOperator(
    task_id='bridge2',
    dag=dag,
    provide_context=True,
    python_callable=bridge2,
    op_args=[])

DynamicWorkflow_Group2 = Variable.get("DynamicWorkflow_Group2")
logging.info("The current DynamicWorkflow value is " + str(DynamicWorkflow_Group2))

for index in range(int(DynamicWorkflow_Group2)):
    dynamicTask = PythonOperator(
        task_id='secondGroup_' + str(index),
        dag=dag,
        provide_context=True,
        python_callable=doSomeWork,
        op_args=['secondGroup', index])

    bridge1_task.set_downstream(dynamicTask)
    dynamicTask.set_downstream(bridge2_task)

ending_task = PythonOperator(
    task_id='end',
    dag=dag,
    provide_context=True,
    python_callable=end,
    op_args=[])

DynamicWorkflow_Group3 = Variable.get("DynamicWorkflow_Group3")
logging.info("The current DynamicWorkflow value is " + str(DynamicWorkflow_Group3))

for index in range(int(DynamicWorkflow_Group3)):

    # You can make this logic anything you'd like
    # I chose to use the PythonOperator for all tasks
    # except the last task will use the BashOperator
    if index < (int(DynamicWorkflow_Group3) - 1):
        dynamicTask = PythonOperator(
            task_id='thirdGroup_' + str(index),
            dag=dag,
            provide_context=True,
            python_callable=doSomeWork,
            op_args=['thirdGroup', index])
    else:
        dynamicTask = BashOperator(
            task_id='thirdGroup_' + str(index),
            bash_command='touch /home/ec2-user/airflow/thirdGroup_' + str(index) + '.txt',
            dag=dag)

    bridge2_task.set_downstream(dynamicTask)
    dynamicTask.set_downstream(ending_task)

# If you do not connect these then in the event that your range is ever zero you will have a disconnection between your stream
# and your tasks will run simultaneously instead of in your desired stream order.
starting_task.set_downstream(bridge1_task)
bridge1_task.set_downstream(bridge2_task)
bridge2_task.set_downstream(ending_task)

DAGを実行する前に、次の3つのAirflow変数を作成します

airflow variables --set DynamicWorkflow_Group1 1

airflow variables --set DynamicWorkflow_Group2 0

airflow variables --set DynamicWorkflow_Group3 0

DAGがこれに由来することがわかります

ここに画像の説明を入力してください

実行した後これに

ここに画像の説明を入力してください

このDAGの詳細については、Airflowでの動的ワークフローの作成に関する私の記事を参照してください。


1
ただし、このDAGのDagRunが複数ある場合はどうなりますか。それらはすべて同じ変数を共有しますか?
Mar-k

1
はい、同じ変数を使用します。これについては、記事の最後で説明します。変数を動的に作成し、変数名にdag run idを使用する必要があります。私の例は、動的な可能性を示すためだけに単純ですが、それを生産品質にする必要があります:)
カイル・ブリデンスティン

動的タスクを作成するときにブリッジは必要ですか?あなたの記事を一瞬完全に読みますが、尋ねたかったです。私は現在、上流のタスクに基づいて動的なタスクを作成するのに苦労しており、どこが間違っているのかを理解するために順調に進んでいます。私の現在の問題は、何らかの理由でDAGをDAG-Bagに同期できないことです。DAGは、モジュールで静的リストを使用していたときに同期しましたが、その静的リストを上流のタスクから作成するように切り替えたときに停止しました。
lucid_goose

6

OA:「Airflowで、タスクAが完了するまでタスクB. *の数が不明になるようなワークフローを作成する方法はありますか?」

短い答えはノーです。Airflowは、実行を開始する前にDAGフローを構築します。

とはいえ、簡単な結論に達しました。つまり、そのような必要はありません。一部の作業を並列化する場合は、処理するアイテムの数ではなく、使用可能なリソースを評価する必要があります。

これは次のように行いました。ジョブを分割する、固定数のタスク(10など)を動的に生成します。たとえば、100個のファイルを処理する必要がある場合、各タスクは10個のファイルを処理します。今日は後でコードを投稿します。

更新

ここにコードがあります、遅れて申し訳ありません。

from datetime import datetime, timedelta

import airflow
from airflow.operators.dummy_operator import DummyOperator

args = {
    'owner': 'airflow',
    'depends_on_past': False,
    'start_date': datetime(2018, 1, 8),
    'email': ['myemail@gmail.com'],
    'email_on_failure': True,
    'email_on_retry': True,
    'retries': 1,
    'retry_delay': timedelta(seconds=5)
}

dag = airflow.DAG(
    'parallel_tasks_v1',
    schedule_interval="@daily",
    catchup=False,
    default_args=args)

# You can read this from variables
parallel_tasks_total_number = 10

start_task = DummyOperator(
    task_id='start_task',
    dag=dag
)


# Creates the tasks dynamically.
# Each one will elaborate one chunk of data.
def create_dynamic_task(current_task_number):
    return DummyOperator(
        provide_context=True,
        task_id='parallel_task_' + str(current_task_number),
        python_callable=parallelTask,
        # your task will take as input the total number and the current number to elaborate a chunk of total elements
        op_args=[current_task_number, int(parallel_tasks_total_number)],
        dag=dag)


end = DummyOperator(
    task_id='end',
    dag=dag)

for page in range(int(parallel_tasks_total_number)):
    created_task = create_dynamic_task(page)
    start_task >> created_task
    created_task >> end

コードの説明:

ここには、単一の開始タスクと単一の終了タスク(両方ともダミー)があります。

次に、forループを含む開始タスクから、同じPython呼び出し可能オブジェクトを使用して10個のタスクを作成します。タスクは、関数create_dynamic_taskで作成されます。

呼び出し可能な各pythonに、並列タスクの総数と現在のタスクインデックスを引数として渡します。

エラボレートするアイテムが1000あるとします。最初のタスクは、10チャンクのうちの最初のチャンクをエラボレートする必要があるという入力を受け取ります。1000個のアイテムを10個のチャンクに分割し、最初のアイテムを詳しく説明します。


1
アイテムごとに特定のタスク(進行状況、結果、成功/失敗、再試行など)を必要としない限り、これは良い解決策です
Alonzzo2

@Ena parallelTaskは定義されていません。何か不足していますか?
Anthony Keane

2
@AnthonyKeane実際に何かを実行するために呼び出す必要があるpython関数です。コードでコメントされているように、合計数と現在の数を入力として使用して、合計要素のチャンクを詳しく説明します。
Ena

4

あなたが探しているのは、DAGを動的に作成することだと思います。この種の状況に遭遇したのは、数日前にこのブログを検索した後のことです。

動的タスク生成

start = DummyOperator(
    task_id='start',
    dag=dag
)

end = DummyOperator(
    task_id='end',
    dag=dag)

def createDynamicETL(task_id, callableFunction, args):
    task = PythonOperator(
        task_id = task_id,
        provide_context=True,
        #Eval is used since the callableFunction var is of type string
        #while the python_callable argument for PythonOperators only receives objects of type callable not strings.
        python_callable = eval(callableFunction),
        op_kwargs = args,
        xcom_push = True,
        dag = dag,
    )
    return task

DAGワークフローの設定

with open('/usr/local/airflow/dags/config_files/dynamicDagConfigFile.yaml') as f:
    # Use safe_load instead to load the YAML file
    configFile = yaml.safe_load(f)

    # Extract table names and fields to be processed
    tables = configFile['tables']

    # In this loop tasks are created for each table defined in the YAML file
    for table in tables:
        for table, fieldName in table.items():
            # In our example, first step in the workflow for each table is to get SQL data from db.
            # Remember task id is provided in order to exchange data among tasks generated in dynamic way.
            get_sql_data_task = createDynamicETL('{}-getSQLData'.format(table),
                                                 'getSQLData',
                                                 {'host': 'host', 'user': 'user', 'port': 'port', 'password': 'pass',
                                                  'dbname': configFile['dbname']})

            # Second step is upload data to s3
            upload_to_s3_task = createDynamicETL('{}-uploadDataToS3'.format(table),
                                                 'uploadDataToS3',
                                                 {'previous_task_id': '{}-getSQLData'.format(table),
                                                  'bucket_name': configFile['bucket_name'],
                                                  'prefix': configFile['prefix']})

            # This is where the magic lies. The idea is that
            # once tasks are generated they should linked with the
            # dummy operators generated in the start and end tasks. 
            # Then you are done!
            start >> get_sql_data_task
            get_sql_data_task >> upload_to_s3_task
            upload_to_s3_task >> end

これは、コードをまとめた後のDAGの外観です。 ここに画像の説明を入力してください

import yaml
import airflow
from airflow import DAG
from datetime import datetime, timedelta, time
from airflow.operators.python_operator import PythonOperator
from airflow.operators.dummy_operator import DummyOperator

start = DummyOperator(
    task_id='start',
    dag=dag
)


def createDynamicETL(task_id, callableFunction, args):
    task = PythonOperator(
        task_id=task_id,
        provide_context=True,
        # Eval is used since the callableFunction var is of type string
        # while the python_callable argument for PythonOperators only receives objects of type callable not strings.
        python_callable=eval(callableFunction),
        op_kwargs=args,
        xcom_push=True,
        dag=dag,
    )
    return task


end = DummyOperator(
    task_id='end',
    dag=dag)

with open('/usr/local/airflow/dags/config_files/dynamicDagConfigFile.yaml') as f:
    # use safe_load instead to load the YAML file
    configFile = yaml.safe_load(f)

    # Extract table names and fields to be processed
    tables = configFile['tables']

    # In this loop tasks are created for each table defined in the YAML file
    for table in tables:
        for table, fieldName in table.items():
            # In our example, first step in the workflow for each table is to get SQL data from db.
            # Remember task id is provided in order to exchange data among tasks generated in dynamic way.
            get_sql_data_task = createDynamicETL('{}-getSQLData'.format(table),
                                                 'getSQLData',
                                                 {'host': 'host', 'user': 'user', 'port': 'port', 'password': 'pass',
                                                  'dbname': configFile['dbname']})

            # Second step is upload data to s3
            upload_to_s3_task = createDynamicETL('{}-uploadDataToS3'.format(table),
                                                 'uploadDataToS3',
                                                 {'previous_task_id': '{}-getSQLData'.format(table),
                                                  'bucket_name': configFile['bucket_name'],
                                                  'prefix': configFile['prefix']})

            # This is where the magic lies. The idea is that
            # once tasks are generated they should linked with the
            # dummy operators generated in the start and end tasks. 
            # Then you are done!
            start >> get_sql_data_task
            get_sql_data_task >> upload_to_s3_task
            upload_to_s3_task >> end

それは非常に完全な希望を助けましたそれはまた誰かを助けます


自分で達成しましたか?疲れた。しかし、私は失敗しました。
イモリ

はい、うまくいきました。どのような問題に直面していますか?
ムハンマドビンアリ

1
わかった。私の問題は解決しました。ありがとう。Dockerイメージの環境変数を読み取る正しい方法が得られませんでした。
イモリ

テーブルアイテムが変更され、静的yamlファイルに配置できない場合はどうなりますか?
FrankZhu

3

私はこの時によりよい解決策を発見したと思いますhttps://github.com/mastak/airflow_multi_dagrunに似た複数のdagruns、トリガーによってDagRunsの簡単なエンキューを使用して、TriggerDagRunsを。ほとんどのクレジットはhttps://github.com/mastakに送らますが、最新のエアフローで動作するようにいくつかの詳細をパッチする必要がありました。

このソリューションでは、いくつかのDagRunをトリガーするカスタムオペレーターを使用しています

from airflow import settings
from airflow.models import DagBag
from airflow.operators.dagrun_operator import DagRunOrder, TriggerDagRunOperator
from airflow.utils.decorators import apply_defaults
from airflow.utils.state import State
from airflow.utils import timezone


class TriggerMultiDagRunOperator(TriggerDagRunOperator):
    CREATED_DAGRUN_KEY = 'created_dagrun_key'

    @apply_defaults
    def __init__(self, op_args=None, op_kwargs=None,
                 *args, **kwargs):
        super(TriggerMultiDagRunOperator, self).__init__(*args, **kwargs)
        self.op_args = op_args or []
        self.op_kwargs = op_kwargs or {}

    def execute(self, context):

        context.update(self.op_kwargs)
        session = settings.Session()
        created_dr_ids = []
        for dro in self.python_callable(*self.op_args, **context):
            if not dro:
                break
            if not isinstance(dro, DagRunOrder):
                dro = DagRunOrder(payload=dro)

            now = timezone.utcnow()
            if dro.run_id is None:
                dro.run_id = 'trig__' + now.isoformat()

            dbag = DagBag(settings.DAGS_FOLDER)
            trigger_dag = dbag.get_dag(self.trigger_dag_id)
            dr = trigger_dag.create_dagrun(
                run_id=dro.run_id,
                execution_date=now,
                state=State.RUNNING,
                conf=dro.payload,
                external_trigger=True,
            )
            created_dr_ids.append(dr.id)
            self.log.info("Created DagRun %s, %s", dr, now)

        if created_dr_ids:
            session.commit()
            context['ti'].xcom_push(self.CREATED_DAGRUN_KEY, created_dr_ids)
        else:
            self.log.info("No DagRun created")
        session.close()

次に、PythonOperatorの呼び出し可能関数からいくつかのdagrunを送信できます。次に例を示します。

from airflow.operators.dagrun_operator import DagRunOrder
from airflow.models import DAG
from airflow.operators import TriggerMultiDagRunOperator
from airflow.utils.dates import days_ago


def generate_dag_run(**kwargs):
    for i in range(10):
        order = DagRunOrder(payload={'my_variable': i})
        yield order

args = {
    'start_date': days_ago(1),
    'owner': 'airflow',
}

dag = DAG(
    dag_id='simple_trigger',
    max_active_runs=1,
    schedule_interval='@hourly',
    default_args=args,
)

gen_target_dag_run = TriggerMultiDagRunOperator(
    task_id='gen_target_dag_run',
    dag=dag,
    trigger_dag_id='common_target',
    python_callable=generate_dag_run
)

https://github.com/flinz/airflow_multi_dagrunでコードを使用してフォークを作成しました


3

ジョブグラフは実行時に生成されません。むしろ、グラフはdagsフォルダーからAirflowによって取得されたときに作成されます。したがって、ジョブが実行されるたびにジョブの異なるグラフを作成することは実際には不可能です。ロード時にクエリに基づいてグラフを作成するようにジョブを構成できます。そのグラフは、その後の実行ごとに同じままになるため、あまり役に立ちません。

分岐演算子を使用すると、クエリ結果に基づいて実行ごとに異なるタスクを実行するグ​​ラフを設計できます。

私が行ったことは、一連のタスクを事前に構成してから、クエリ結果を取得して、タスク全体に分散することです。クエリが多くの結果を返す場合、スケジューラに大量の同時タスクで溢れさせたくないので、これはとにかく良いでしょう。さらに安全を期すために、プールを使用して、私の同時実行性が予想外に大きいクエリで手に負えないことを確認しました。

"""
 - This is an idea for how to invoke multiple tasks based on the query results
"""
import logging
from datetime import datetime

from airflow import DAG
from airflow.hooks.postgres_hook import PostgresHook
from airflow.operators.mysql_operator import MySqlOperator
from airflow.operators.python_operator import PythonOperator, BranchPythonOperator
from include.run_celery_task import runCeleryTask

########################################################################

default_args = {
    'owner': 'airflow',
    'catchup': False,
    'depends_on_past': False,
    'start_date': datetime(2019, 7, 2, 19, 50, 00),
    'email': ['rotten@stackoverflow'],
    'email_on_failure': True,
    'email_on_retry': False,
    'retries': 0,
    'max_active_runs': 1
}

dag = DAG('dynamic_tasks_example', default_args=default_args, schedule_interval=None)

totalBuckets = 5

get_orders_query = """
select 
    o.id,
    o.customer
from 
    orders o
where
    o.created_at >= current_timestamp at time zone 'UTC' - '2 days'::interval
    and
    o.is_test = false
    and
    o.is_processed = false
"""

###########################################################################################################

# Generate a set of tasks so we can parallelize the results
def createOrderProcessingTask(bucket_number):
    return PythonOperator( 
                           task_id=f'order_processing_task_{bucket_number}',
                           python_callable=runOrderProcessing,
                           pool='order_processing_pool',
                           op_kwargs={'task_bucket': f'order_processing_task_{bucket_number}'},
                           provide_context=True,
                           dag=dag
                          )


# Fetch the order arguments from xcom and doStuff() to them
def runOrderProcessing(task_bucket, **context):
    orderList = context['ti'].xcom_pull(task_ids='get_open_orders', key=task_bucket)

    if orderList is not None:
        for order in orderList:
            logging.info(f"Processing Order with Order ID {order[order_id]}, customer ID {order[customer_id]}")
            doStuff(**op_kwargs)


# Discover the orders we need to run and group them into buckets for processing
def getOpenOrders(**context):
    myDatabaseHook = PostgresHook(postgres_conn_id='my_database_conn_id')

    # initialize the task list buckets
    tasks = {}
    for task_number in range(0, totalBuckets):
        tasks[f'order_processing_task_{task_number}'] = []

    # populate the task list buckets
    # distribute them evenly across the set of buckets
    resultCounter = 0
    for record in myDatabaseHook.get_records(get_orders_query):

        resultCounter += 1
        bucket = (resultCounter % totalBuckets)

        tasks[f'order_processing_task_{bucket}'].append({'order_id': str(record[0]), 'customer_id': str(record[1])})

    # push the order lists into xcom
    for task in tasks:
        if len(tasks[task]) > 0:
            logging.info(f'Task {task} has {len(tasks[task])} orders.')
            context['ti'].xcom_push(key=task, value=tasks[task])
        else:
            # if we didn't have enough tasks for every bucket
            # don't bother running that task - remove it from the list
            logging.info(f"Task {task} doesn't have any orders.")
            del(tasks[task])

    return list(tasks.keys())

###################################################################################################


# this just makes sure that there aren't any dangling xcom values in the database from a crashed dag
clean_xcoms = MySqlOperator(
    task_id='clean_xcoms',
    mysql_conn_id='airflow_db',
    sql="delete from xcom where dag_id='{{ dag.dag_id }}'",
    dag=dag)


# Ideally we'd use BranchPythonOperator() here instead of PythonOperator so that if our
# query returns fewer results than we have buckets, we don't try to run them all.
# Unfortunately I couldn't get BranchPythonOperator to take a list of results like the
# documentation says it should (Airflow 1.10.2). So we call all the bucket tasks for now.
get_orders_task = PythonOperator(
                                 task_id='get_orders',
                                 python_callable=getOpenOrders,
                                 provide_context=True,
                                 dag=dag
                                )
get_orders_task.set_upstream(clean_xcoms)

# set up the parallel tasks -- these are configured at compile time, not at run time:
for bucketNumber in range(0, totalBuckets):
    taskBucket = createOrderProcessingTask(bucketNumber)
    taskBucket.set_upstream(get_orders_task)


###################################################################################################

タスクの結果としてオンザフライでサブダグを作成することは可能であるように見えるかもしれませんが、サブダグに関するドキュメントのほとんどは、解決するよりも多くの問題を引き起こすため、その機能から離れることを強くお勧めしますほとんどの場合。私はサブ機能が組み込み機能としてすぐに削除されるかもしれないという提案を見てきました。
腐った

またfor tasks in tasks、この例のループでは、反復しているオブジェクトを削除しています。それは悪い考えです。代わりに、キーのリストを取得してそれを反復処理するか、削除をスキップします。同様に、xcom_pullが(リストまたは空のリストではなく)Noneを返す場合、forループも失敗します。「for」の前にxcom_pullを実行し、それがNoneかどうかを確認するか、少なくとも空のリストがそこにあることを確認することができます。YMMV。幸運を!
腐った

1
何が入っopen_order_taskてるの?
alltej

あなたは正しい、それは私の例ではタイプミスです。get_orders_task.set_upstream()である必要があります。直します。
腐敗

0

問題が何であるか理解していないのですか?

これは標準的な例です。関数subdag replace for i in range(5):置き換えれば、for i in range(random.randint(0, 10)):すべてが機能します。演算子 'start'がデータをファイルに入れ、関数がランダムな値の代わりにこのデータを読み取ることを想像してください。次に、オペレーターの「開始」はタスクの数に影響します。

subdagに入るとき、タスクの数は現時点でのファイル/データベース/ XComからの最後の読み取りと等しいので、問題はUIの表示にのみあります。これにより、一度に1つのDAGの複数の起動が自動的に制限されます。


-1

私はこの質問に非常に似ているこのミディアムポストを見つけました。しかし、それはタイプミスに満ちており、実装しようとしても機能しません。

上記に対する私の答えは次のとおりです。

タスクを動的に作成している場合は、上流のタスクで作成されていないもの、またはそのタスクとは独立して定義できるものを反復処理することによって作成する必要があります。他の多くの人が以前に指摘したように、実行日や他の気流変数をテンプレートの外の何か(たとえば、タスク)に渡すことができないことを学びました。この投稿も参照してください。


私のコメントを見ると、上流のタスクの結果に基づいてタスクを作成することが実際に可能であることがわかります。
クリストファーベック
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.