EXPORT
所有文档
menu
没有找到结果,请重新输入

PALO

EXPORT

EXPORT

Description

该语句用于将指定表的数据导出到指定位置。

这是一个异步操作,任务提交成功则返回。执行后可使用 SHOW EXPORT 命令查看进度。

EXPORT TABLE table_name
[PARTITION (p1[,p2])]
TO export_path
[opt_properties]
WITH BROKER
[broker_properties];
  • table_name

    当前要导出的表的表名。仅支持 Doris 本地表数据的导出。

  • partition

    可以只导出指定表的某些指定分区

  • export_path

    导出的路径,需为目录。

  • opt_properties

    用于指定一些导出参数。

    [PROPERTIES ("key"="value", ...)]

    可以指定如下参数:

    • column_separator:指定导出的列分隔符,默认为\t。仅支持单字节。
    • line_delimiter:指定导出的行分隔符,默认为\n。仅支持单字节。
    • exec_mem_limit:导出在单个 BE 节点的内存使用上限,默认为 2GB,单位为字节。
    • timeout:导入作业的超时时间,默认为2小时,单位是秒。
    • tablet_num_per_task:每个子任务能分配扫描的最大 Tablet 数量。
  • WITH BROKER

    导出功能需要通过 Broker 进程写数据到远端存储上。这里需要定义相关的连接信息供 Broker 使用。

    WITH BROKER bos ("key"="value"[,...])

Example

  1. 将 testTbl 表中的所有数据导出到 hdfs 上

    EXPORT TABLE testTbl
    TO "bos://my_buckets/export/"
    WITH BROKER bos
    (
        "bos_endpoint" = "http://bj.bcebos.com",
        "bos_accesskey" = "xxxxxxxxxxxxxxxxxxxxxxxxxx",
        "bos_secret_accesskey"="yyyyyyyyyyyyyyyyyyyyyyyyyy"
    );
  2. 将 testTbl 表中的分区 p1, p2 导出到 hdfs 上。

    EXPORT TABLE testTbl
    TO "bos://my_buckets/export/"
    (
        "column_separator" = ",",
        "tablet_num_per_task" = "10"
    )
    WITH BROKER bos
    (
        "bos_endpoint" = "http://bj.bcebos.com",
        "bos_accesskey" = "xxxxxxxxxxxxxxxxxxxxxxxxxx",
        "bos_secret_accesskey"="yyyyyyyyyyyyyyyyyyyyyyyyyy"
    );

Keywords

EXPORT

最佳实践

子任务的拆分

一个 Export 作业会拆分成多个子任务(执行计划)去执行。有多少查询计划需要执行,取决于总共有多少 Tablet,以及一个查询计划最多可以分配多少个 Tablet。

因为多个查询计划是串行执行的,所以如果让一个查询计划处理更多的分片,则可以减少作业的执行时间。

但如果查询计划出错(比如调用 Broker 的 RPC 失败,远端存储出现抖动等),过多的 Tablet 会导致一个查询计划的重试成本变高。

所以需要合理安排查询计划的个数以及每个查询计划所需要扫描的分片数,在执行时间和执行成功率之间做出平衡。

一般建议一个查询计划扫描的数据量在 3-5 GB内。

内存限制

通常一个 Export 作业的查询计划只有 扫描-导出 两部分,不涉及需要太多内存的计算逻辑。所以通常 2GB 的默认内存限制可以满足需求。

但在某些场景下,比如一个查询计划,在同一个 BE 上需要扫描的 Tablet 过多,或者 Tablet 的数据版本过多时,可能会导致内存不足。此时需要通过这个 exec_mem_limit 参数设置更大的内存,比如 4GB、8GB 等。

注意事项

  • 不建议一次性导出大量数据。一个 Export 作业建议的导出数据量最大在几十 GB。过大的导出会导致更多的垃圾文件和更高的重试成本。如果表数据量过大,建议按照分区导出。
  • 如果 Export 作业运行失败,在远端存储中产生的 __doris_export_tmp_xxx 临时目录,以及已经生成的文件不会被删除,需要用户手动删除。
  • 如果 Export 作业运行成功,在远端存储中产生的 __doris_export_tmp_xxx 目录,根据远端存储的文件系统语义,可能会保留,也可能会被清除。比如在百度对象存储(BOS)中,通过 rename 操作将一个目录中的最后一个文件移走后,该目录也会被删除。如果该目录没有被清除,用户可以手动清除。
  • Export 作业只会导出 Base 表的数据,不会导出物化视图的数据。
  • Export 作业会扫描数据,占用 IO 资源,可能会影响系统的查询延迟。
  • 一个集群内同时运行的 Export 作业最大个数为 5。之后提交的只作业将会排队。
BACKUPSTREAM-LOAD