タグ付けされた質問 「airflow-scheduler」

1
Airflowスケジューラーがkubernetesエグゼキューターで開始できない
私はhttps://github.com/helm/charts/tree/master/stable/airflow helm chart を使用 puckle/docker-airflowして、kubernetesがインストールされたv1.10.8 イメージをビルドし、そのイメージをhelmチャートで使用していますが、 File "/usr/local/bin/airflow", line 37, in <module> args.func(args) File "/usr/local/lib/python3.7/site-packages/airflow/bin/cli.py", line 1140, in initdb db.initdb(settings.RBAC) File "/usr/local/lib/python3.7/site-packages/airflow/utils/db.py", line 332, in initdb dagbag = models.DagBag() File "/usr/local/lib/python3.7/site-packages/airflow/models/dagbag.py", line 95, in __init__ executor = get_default_executor() File "/usr/local/lib/python3.7/site-packages/airflow/executors/__init__.py", line 48, in get_default_executor DEFAULT_EXECUTOR = _get_executor(executor_name) File "/usr/local/lib/python3.7/site-packages/airflow/executors/__init__.py", line …

1
PythonでDAGを使用してAWS athenaテーブルで新しいパーティション/データが利用可能な場合にのみAirflowタスクをトリガーする方法
私は以下のようなシーンを持っています: a Task 1をトリガーTask 2し、ソーステーブル(Athena)で新しいデータを利用できる場合のみ。Task1とTask2のトリガーは、新しいデータパーティションが1日に発生したときに発生します。 およびTask 3の完了時にのみトリガーTask 1しますTask 2 Task 4の完了のみをトリガーするTask 3 私のコード from airflow import DAG from airflow.contrib.sensors.aws_glue_catalog_partition_sensor import AwsGlueCatalogPartitionSensor from datetime import datetime, timedelta from airflow.operators.postgres_operator import PostgresOperator from utils import FAILURE_EMAILS yesterday = datetime.combine(datetime.today() - timedelta(1), datetime.min.time()) default_args = { 'owner': 'airflow', 'depends_on_past': False, 'start_date': yesterday, 'email': …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.