当前位置: 首页 > news >正文

济南手机网站开发公司WordPress主题开发核心知识

济南手机网站开发公司,WordPress主题开发核心知识,佛山做网站制作公司,哈尔滨自助建站软件文章目录 SparkUI任务启动参数介绍#xff08;148个参数#xff09;1 spark.app.id: Spark 应用程序的唯一标识符。2 spark.app.initial.jar.urls: Spark 应用程序的初始 Jar 包的 URL。3 spark.app.name: Spark 应用程序的名称。4 spark.app.startTime: Spark 应用程序的启动… 文章目录 SparkUI任务启动参数介绍148个参数1 spark.app.id: Spark 应用程序的唯一标识符。2 spark.app.initial.jar.urls: Spark 应用程序的初始 Jar 包的 URL。3 spark.app.name: Spark 应用程序的名称。4 spark.app.startTime: Spark 应用程序的启动时间。5 spark.app.submitTime: Spark 应用程序的提交时间。6 spark.blacklist.enabled: 是否启用黑名单机制用于阻止执行失败的节点。7 spark.buffer.size: 用于 IO 缓冲的大小。8 spark.cleaner.periodicGC.interval: 周期性垃圾回收清理器的间隔。9 spark.driver.appUIAddress: Driver 进程的 UI 地址。10 spark.driver.extraJavaOptions: Driver 进程的额外 Java 选项。11 spark.driver.host: Driver 进程的主机名。12 spark.driver.maxResultSize: Driver 进程可以接收的最大结果大小。13 spark.driver.memory: Driver 进程的内存大小。14 spark.driver.port: Driver 进程的端口号。15 spark.dynamicAllocation.enabled: 是否启用动态资源分配。16 spark.dynamicAllocation.executorIdleTimeout: Executor 空闲超时时17 spark.dynamicAllocation.initialExecutors: 初始 Executor 数量。18 spark.dynamicAllocation.maxExecutors: 最大 Executor 数量。19 spark.dynamicAllocation.minExecutors: 最小 Executor 数量。20 spark.eventLog.compress: 是否压缩事件日志。21 spark.eventLog.dir: 事件日志目录。22 spark.eventLog.enabled: 是否启用事件日志。23 spark.executor.cores: 每个 Executor 的 CPU 核心数。24 spark.executor.extraJavaOptions: 每个 Executor 的额外 Java 选项。25 spark.executor.id: Executor 的唯一标识符。26 spark.executor.instances: Executor 的实例数量。27 spark.executor.memory: 每个 Executor 的内存大小。28 spark.executor.memoryOverhead: 每个 Executor 的内存 overhead。29 spark.extraListeners: 额外的监听器。30 spark.files.ignoreCorruptFiles: 是否忽略损坏的文件。31 spark.hadoop.fs.file.impl.disable.cache: 是否禁用文件系统的缓存。32 spark.hadoop.fs.hdfs.impl.disable.cache: 是否禁用 HDFS 的缓存。33 spark.hadoop.mapreduce.input.fileinputformat.list-status.num-threads: 文件输入格式的线程数。34 spark.hadoopRDD.ignoreEmptySplits: 是否忽略空分片。35 spark.history.fs.cleaner.enabled: 是否启用历史文件系统清理器。36 spark.history.fs.cleaner.interval: 历史文件系统清理器的清理间隔。37 spark.history.fs.cleaner.maxAge: 历史文件系统清理器的最大年龄。38 spark.history.fs.update.interval: 历史文件系统更新间隔。39 spark.history.kerberos.enabled: 是否启用 Kerberos 认证。40 spark.history.provider: 历史记录提供程序。41 spark.history.retainedApplications: 保留的历史应用程序数量。42 spark.history.store.maxDiskUsage: 历史存储的最大磁盘使用量。43 spark.history.ui.maxApplications: 历史 UI 的最大应用程序数量。44 spark.hive.server2.proxy.user: Hive Server2 代理用户。45 spark.jars: Spark 应用程序所需的 Jar 包。46 spark.kerberos.access.hadoopFileSystems: Kerberos 访问 Hadoop 文件系统。47 spark.kryoserializer.buffer.max: Kryo 序列化器的最大缓冲区大小。48 spark.kyuubi.client.ipAddress: Kyuubi 客户端的 IP 地址。49 spark.kyuubi.engine.credentials: Kyuubi 引擎的凭证。50 spark.kyuubi.engine.share.level: Kyuubi 引擎共享级别。51 spark.kyuubi.engine.share.level.subdomain: Kyuubi 引擎共享级别子域。52 spark.kyuubi.engine.submit.time: Kyuubi 引擎提交时间。53 spark.kyuubi.ha.engine.ref.id: Kyuubi HA 引擎引用 ID。54 spark.kyuubi.ha.namespace: Kyuubi HA 命名空间。55 spark.kyuubi.ha.zookeeper.auth.keytab: Kyuubi HA ZooKeeper 认证 keytab。56 spark.kyuubi.ha.zookeeper.auth.principal: Kyuubi HA ZooKeeper 认证 principal。57 spark.kyuubi.ha.zookeeper.auth.type: Kyuubi HA ZooKeeper 认证类型。58 spark.kyuubi.ha.zookeeper.namespace: Kyuubi HA ZooKeeper 命名空间。59 spark.kyuubi.ha.zookeeper.quorum: Kyuubi HA ZooKeeper quorum。60 spark.kyuubi.operation.result.max.rows: Kyuubi 操作结果的最大行数。61 spark.kyuubi.session.engine.idle.timeout: Kyuubi 会话引擎空闲超时时间。62 spark.locality.wait: 本地性等待时间。63 spark.locality.wait.node: 节点本地性等待时间。64 spark.locality.wait.process: 进程本地性等待时间。65 spark.locality.wait.rack: 机架本地性等待时间。66 spark.master: Spark Master 地址。67 spark.maxRemoteBlockSizeFetchToMem: 最大远程块大小从磁盘到内存。68 spark.network.timeout: 网络超时时间。69 spark.org.apache.hadoop.yarn.server.webproxy.amfilter.AmIpFilter.param.PROXY_HOSTS: YARN Web 代理参数。70 spark.org.apache.hadoop.yarn.server.webproxy.amfilter.AmIpFilter.param.PROXY_URI_BASES: YARN Web 代理 URI 基础路径。71 spark.org.apache.hadoop.yarn.server.webproxy.amfilter.AmIpFilter.param.RM_HA_URLS: YARN Web 代理 RM HA URLs。72 spark.redaction.regex: 日志内容的正则表达式用于数据遮蔽。73 spark.reducer.maxBlocksInFlightPerAddress: 每个地址的最大块数。74 spark.reducer.maxReqsInFlight: 最大并行请求数。75 spark.repl.class.outputDir: REPL 类的输出目录。76 spark.repl.class.uri: REPL 类的 URI。77 spark.rpc.askTimeout: RPC 询问超时时间。78 spark.scheduler.mode: Spark 调度模式。79 spark.serializer: 序列化器。80 spark.shuffle.detectCorrupt.useExtraMemory: 是否使用额外内存检测 Shuffle 数据的损坏。81 spark.shuffle.file.buffer: Shuffle 文件的缓冲区大小。82 spark.shuffle.io.maxRetries: Shuffle IO 的最大重试次数。83 spark.shuffle.io.preferDirectBufs: 是否优先使用直接缓冲区。84 spark.shuffle.io.retryWait: Shuffle IO 重试等待时间。85 spark.shuffle.mapOutput.parallelAggregationThreshold: 并行聚合阈值。86 spark.shuffle.readHostLocalDisk: 是否从本地磁盘读取 Shuffle 数据。87 spark.shuffle.registration.maxAttempts: Shuffle 注册的最大尝试次数。88 spark.shuffle.registration.timeout: Shuffle 注册的超时时间。89 spark.shuffle.service.enabled: 是否启用 Shuffle 服务。90 spark.shuffle.spill.diskWriteBufferSize: Shuffle Spill 磁盘写缓冲区大小。91 spark.shuffle.unsafe.file.output.buffer: 不安全 Shuffle 文件输出缓冲区大小。92 spark.shuffle.useOldFetchProtocol: 是否使用旧的 Fetch 协议。93 spark.speculation: 是否启用任务推测执行。94 spark.speculation.interval: 任务推测执行的间隔。95 spark.speculation.multiplier: 任务推测执行的倍数。96 spark.speculation.quantile: 任务推测执行的分位数。97 spark.speculation.task.duration.threshold: 任务推测执行的持续时间阈值。98 spark.sql.access.authorization.enable: 是否启用 SQL 访问授权。99 spark.sql.access.iceberg.enable: 是否启用 Iceberg 表的 SQL 访问。100 spark.sql.adaptive.advisoryPartitionSizeInBytes: 自适应执行中分区大小的建议值。101 spark.sql.adaptive.autoBroadcastJoinThreshold: 自适应执行中自动广播连接的阈值。102 spark.sql.adaptive.enabled: 是否启用自适应执行。103 spark.sql.adaptive.fetchShuffleBlocksInBatch: 自适应执行中每批次获取 Shuffle 块的数量。104 spark.sql.adaptive.maxShuffledHashJoinLocalMapThreshold: 自适应执行中本地 Map 阈值。105 spark.sql.adaptive.nonEmptyPartitionRatioForBroadcastJoin: 自适应执行中非空分区比例的广播连接阈值。106 spark.sql.adaptive.skewJoin.enabled: 自适应执行中是否启用倾斜连接。107 spark.sql.adaptive.skewJoin.skewedPartitionFactor: 自适应执行中倾斜连接的分区因子。108 spark.sql.adaptive.skewJoin.skewedPartitionThresholdInBytes: 自适应执行中倾斜连接的分区阈值。109 spark.sql.autoBroadcastJoinThreshold: 自动广播连接的阈值。110 spark.sql.broadcastTimeout: 广播连接的超时时间。111 spark.sql.catalog.hive_catalog: Hive Catalog 名称。112 spark.sql.catalog.hive_catalog.type: Hive Catalog 类型。113 spark.sql.catalog.hive_catalog.url: Hive Catalog URL。114 spark.sql.catalog.spark_catalog: Spark Catalog 名称。115 spark.sql.catalog.spark_catalog.type: Spark Catalog 类型。116 spark.sql.catalogImplementation: SQL Catalog 实现。117 spark.sql.crossJoin.enabled: 是否启用跨连接。118 spark.sql.execution.topKSortFallbackThreshold: 执行中 Top-K 排序的阈值。119 spark.sql.extensions: SQL 扩展。120 spark.sql.files.ignoreCorruptFiles: 是否忽略损坏的文件。121 spark.sql.files.ignoreMissingFiles: 是否忽略缺失的文件。122 spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes: 最终阶段执行中分区大小的建议值。123 spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum: 最终阶段执行中合并分区的最小分区数。124 spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor: 最终阶段执行中倾斜连接的分区因子。125 spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes: 最终阶段执行中倾斜连接的分区阈值。126 spark.sql.hive.convertInsertingPartitionedTable: Hive 表插入分区的转换。127 spark.sql.hive.verifyPartitionPath: Hive 表分区路径验证。128 spark.sql.legacy.castComplexTypesToString.enabled: 是否启用将复杂类型强制转换为字符串的遗留行为。129 spark.sql.legacy.setCommandRejectsSparkCoreConfs: 是否拒绝设置 Spark Core 配置的遗留 set 命令。130 spark.sql.legacy.timeParserPolicy: 时间解析策略。131 spark.sql.optimizer.finalStageConfigIsolation.enabled: 是否启用最终阶段配置隔离。132 spark.sql.parquet.recordLevelFilter.enabled: 是否启用 Parquet 记录级别过滤。133 spark.sql.queryExecutionListeners: 查询执行监听器。134 spark.sql.runSQLOnFiles: 是否在文件上运行 SQL 查询。135 spark.sql.shuffle.partitions: Shuffle 阶段的分区数。136 spark.sql.statistics.fallBackToHdfs: 是否回退到 HDFS 统计信息。137 spark.sql.storeAssignmentPolicy: 存储分配策略。138 spark.submit.deployMode: Spark 应用程序的部署模式。139 spark.submit.pyFiles: 提交给 Spark 应用程序的 Python 文件。140 spark.ui.filters: Spark UI 的过滤器。141 spark.ui.port: Spark UI 的端口。142 spark.yarn.am.cores: YARN ApplicationMaster 的 CPU 核心数。143 spark.yarn.am.memory: YARN ApplicationMaster 的内存大小。144 spark.yarn.am.memoryOverhead: YARN ApplicationMaster 的内存 overhead。145 spark.yarn.am.waitTime: YARN ApplicationMaster 的等待时间。146 spark.yarn.historyServer.address: YARN 历史服务器地址。147 spark.yarn.queue: YARN 队列。148 spark.yarn.tags: YARN 标签。 SparkUI任务启动参数介绍148个参数 1 spark.app.id: Spark 应用程序的唯一标识符。 2 spark.app.initial.jar.urls: Spark 应用程序的初始 Jar 包的 URL。 3 spark.app.name: Spark 应用程序的名称。 4 spark.app.startTime: Spark 应用程序的启动时间。 5 spark.app.submitTime: Spark 应用程序的提交时间。 6 spark.blacklist.enabled: 是否启用黑名单机制用于阻止执行失败的节点。 spark.blacklist.enabled 是 Spark 中用于控制 executor 黑名单executor blacklist的配置参数。此参数用于启用或禁用 executor 黑名单的功能。当启用了 executor 黑名单时Spark 会监测任务执行的失败情况并在某个 executor 上连续发生多次任务失败时将该 executor 加入到黑名单。被列入黑名单的 executor 在一段时间内不会被分配新的任务以避免在该 executor 上持续发生故障的影响。这个功能的主要目的是增强 Spark 应用程序的稳定性。如果一个 executor 处于不稳定状态可能由于硬件故障、资源问题或其他原因导致任务失败executor 黑名单机制可以防止 Spark 继续将任务分配给这个不稳定的 executor从而减少整体应用程序的故障风险。 7 spark.buffer.size: 用于 IO 缓冲的大小。 在 Spark 中spark.buffer.size 是用于配置网络缓冲区大小的参数。这个参数控制 Spark 执行器executors之间传输数据时使用的缓冲区的大小。具体而言spark.buffer.size 用于控制数据在网络传输时的缓冲区大小以优化数据传输性能。较大的缓冲区可以降低网络传输的开销特别是在大规模数据移动时。然而需要注意设置过大的缓冲区也可能导致一些资源使用方面的问题因为每个任务都可能分配这么大的缓冲区。spark.buffer.size 参数设置的是每个 Executor 中用于数据缓冲的大小。具体来说它影响了在 Executor 之间进行数据传输时使用的缓冲区大小如 Shuffle 操作中的数据传输、网络传输和磁盘写入等。当设置了 spark.buffer.size 后所有的 Executor 都会使用相同的缓冲区大小而不是每个任务或操作使用不同的大小。这样的一致性可以确保在整个 Spark 应用程序中数据传输时使用的缓冲区大小是相同的 8 spark.cleaner.periodicGC.interval: 周期性垃圾回收清理器的间隔。 spark.cleaner.periodicGC.interval 参数是用于配置 Spark 的内存清理garbage collection机制的间隔时间。这个参数定义了 Spark 内部周期性执行的垃圾回收操作的时间间隔。 具体来说spark.cleaner.periodicGC.interval 参数表示了在执行垃圾回收之前等待的时间。Spark 的垃圾回收机制主要用于释放不再使用的内存以防止应用程序因为内存泄漏而耗尽内存。 默认值如果未显式设置该参数的默认值为 30s表示 Spark 将每隔 30 秒执行一次周期性的垃圾回收。 作用周期性的垃圾回收有助于释放不再使用的内存保持应用程序的内存稳定性。这对于长时间运行的 Spark 应用程序尤其重要以防止内存泄漏问题。 9 spark.driver.appUIAddress: Driver 进程的 UI 地址。 10 spark.driver.extraJavaOptions: Driver 进程的额外 Java 选项。 spark.driver.extraJavaOptions 是 Spark 中用于设置驱动程序Driver的额外 Java 选项的配置参数。驱动程序是 Spark 应用程序的主节点负责协调和监控整个应用程序的执行。 具体来说spark.driver.extraJavaOptions 允许您向 Spark 驱动程序的 Java 虚拟机JVM添加额外的 Java 选项。这可以用于调整 JVM 的行为、设置系统属性、添加 Java 库的路径等。通常情况下您可以使用该参数来进行一些与 Spark 驱动程序相关的高级配置。 设置内存参数 --conf spark.driver.extraJavaOptions-Xms512m -Xmx1024m 上述配置设置了 Spark 驱动程序的初始堆大小为 512MB最大堆大小为 1024MB。11 spark.driver.host: Driver 进程的主机名。 12 spark.driver.maxResultSize: Driver 进程可以接收的最大结果大小。 spark.driver.maxResultSize 是 Spark 中用于设置驱动程序Driver端返回给用户的结果的最大大小的配置参数。该参数限制了 Spark 应用程序中可以由单个操作生成的结果的大小。如果操作的结果超过了此限制Spark 将尝试将其截断或分割为适当大小的部分。 具体来说spark.driver.maxResultSize 用于控制驱动程序端执行的操作的结果在内存中的最大大小。如果某个操作的结果超过了这个大小可能会导致驱动程序端的内存溢出或性能问题。这个参数的设置是为了防止驱动程序端由于大量数据结果而耗尽内存。 spark.driver.maxResultSize 的注意事项和用法 默认值如果未显式设置spark.driver.maxResultSize 的默认值是 1g表示默认情况下驱动程序端可以处理最大为 1GB 的结果。 设置方式可以通过 Spark 应用程序的配置文件或通过 Spark 提交命令行参数进行设置。例如 --conf spark.driver.maxResultSize2g 上述命令将 spark.driver.maxResultSize 设置为 2GB。适用场景这个参数通常在执行需要返回大量数据给驱动程序的操作时使用比如在执行 collect 操作时。要注意如果将这个值设置得太小可能会导致无法返回大型结果集从而影响应用程序的正常运行。 13 spark.driver.memory: Driver 进程的内存大小。 spark.driver.memory 是 Spark 中用于设置驱动程序Driver的内存大小的配置参数。这个参数定义了 Spark 应用程序的主节点驱动程序的堆内存大小。驱动程序是整个 Spark 应用程序的控制中心负责协调和监控任务的执行。 具体来说spark.driver.memory 用于指定驱动程序的 Java 虚拟机JVM的堆内存大小。这个堆内存大小影响着驱动程序端可以处理的任务数量和驱动程序本身的性能。 spark.driver.memory 的注意事项和用法 默认值如果未显式设置spark.driver.memory 的默认值是 1g表示默认情况下驱动程序的堆内存大小为 1GB。 设置方式可以通过 Spark 应用程序的配置文件或通过 Spark 提交命令行参数进行设置。例如 --conf spark.driver.memory2g 上述命令将 spark.driver.memory 设置为 2GB。内存分配驱动程序的堆内存主要用于存储应用程序的元数据、任务状态信息、作业计划等以及在执行一些操作时需要缓存的数据。较大的 spark.driver.memory 可以为应用程序提供更多的内存资源但要注意不要设置得太大以至于超过可用的物理内存。 适用场景通常情况下适当调整 spark.driver.memory 的大小可以提高驱动程序的性能特别是当应用程序需要处理大量元数据或需要执行大规模操作时。但请注意如果设置得过大可能会导致驱动程序端的内存溢出。 14 spark.driver.port: Driver 进程的端口号。 15 spark.dynamicAllocation.enabled: 是否启用动态资源分配。 spark.dynamicAllocation.enabled 是 Spark 中用于配置动态资源分配Dynamic Allocation是否启用的配置参数。动态资源分配是一种机制允许 Spark 应用程序根据实际的资源需求来动态地调整执行器executors的数量以更有效地利用集群资源。 具体来说spark.dynamicAllocation.enabled 用于启用或禁用动态资源分配。如果将其设置为 true则启用动态资源分配如果设置为 false则禁用。 以下是一些关于 spark.dynamicAllocation.enabled 的注意事项 默认值如果未显式设置spark.dynamicAllocation.enabled 的默认值是 false表示默认情况下动态资源分配是禁用的。 设置方式可以通过 Spark 应用程序的配置文件或通过 Spark 提交命令行参数进行设置。例如 --conf spark.dynamicAllocation.enabledtrue 上述命令将启用动态资源分配。动态资源分配启用动态资源分配后Spark 应用程序可以根据实际的任务负载来增加或减少执行器的数量。这使得 Spark 应用程序更加灵活可以适应不同的工作负载。 资源调整策略与动态资源分配一起使用的还有其他一些配置参数如 spark.dynamicAllocation.minExecutors、spark.dynamicAllocation.maxExecutors、spark.dynamicAllocation.initialExecutors 等用于配置执行器数量的上下限和初始数量。 16 spark.dynamicAllocation.executorIdleTimeout: Executor 空闲超时时 spark.dynamicAllocation.executorIdleTimeout 是 Spark 中用于配置动态资源分配Dynamic Allocation中执行器executor的空闲超时时间的配置参数。这个参数定义了一个执行器在空闲一段时间后会被终止并释放的时间阈值。 具体来说spark.dynamicAllocation.executorIdleTimeout 用于控制执行器在没有任务执行的情况下保持空闲的最长时间。如果一个执行器在这个时间段内没有被分配任务那么它将被认为是空闲的并可能被终止以释放资源。 spark.dynamicAllocation.executorIdleTimeout 的一些注意事项 默认值如果未显式设置spark.dynamicAllocation.executorIdleTimeout 的默认值是 60s表示默认情况下一个空闲的执行器在 60 秒内没有被分配任务时可能会被终止。 设置方式可以通过 Spark 应用程序的配置文件或通过 Spark 提交命令行参数进行设置。例如 --conf spark.dynamicAllocation.executorIdleTimeout120s 上述命令将 spark.dynamicAllocation.executorIdleTimeout 设置为 120 秒。动态资源分配此参数是动态资源分配机制的一部分用于调整执行器数量以适应实际的工作负载。通过终止空闲的执行器Spark 可以有效地释放资源并在负载轻时减少集群资源的占用。 空闲执行器终止在启用动态资源分配的情况下当执行器处于空闲状态并且达到了指定的空闲超时时间时该执行器可能会被终止。这样可以在不需要太多资源的情况下释放资源。 17 spark.dynamicAllocation.initialExecutors: 初始 Executor 数量。 这个参数用于设置 Spark 应用程序启动时的初始执行器数量。 初始执行器数量是在应用程序启动时分配的执行器的数量这是动态分配的起点。 18 spark.dynamicAllocation.maxExecutors: 最大 Executor 数量。 这个参数用于设置 Spark 应用程序允许的最大执行器数量。 动态分配可以根据负载自动增加执行器数量但不会超过此配置的最大值。 19 spark.dynamicAllocation.minExecutors: 最小 Executor 数量。 这个参数用于设置 Spark 应用程序保持的最小执行器数量。 即使负载较轻动态分配也不会减少执行器数量到低于此配置的最小值。这三个参数都与 Spark 中的动态资源分配Dynamic Allocation有关用于配置执行器executors的数量。这些参数允许 Spark 应用程序根据负载动态地调整执行器的数量以更好地利用集群资源。动态资源分配机制允许 Spark 根据实际的工作负载自动调整执行器数量以确保资源的最佳利用和任务的及时执行。 20 spark.eventLog.compress: 是否压缩事件日志。 21 spark.eventLog.dir: 事件日志目录。 22 spark.eventLog.enabled: 是否启用事件日志。 23 spark.executor.cores: 每个 Executor 的 CPU 核心数。 24 spark.executor.extraJavaOptions: 每个 Executor 的额外 Java 选项。 25 spark.executor.id: Executor 的唯一标识符。 26 spark.executor.instances: Executor 的实例数量。 27 spark.executor.memory: 每个 Executor 的内存大小。 28 spark.executor.memoryOverhead: 每个 Executor 的内存 overhead。 29 spark.extraListeners: 额外的监听器。 30 spark.files.ignoreCorruptFiles: 是否忽略损坏的文件。 31 spark.hadoop.fs.file.impl.disable.cache: 是否禁用文件系统的缓存。 32 spark.hadoop.fs.hdfs.impl.disable.cache: 是否禁用 HDFS 的缓存。 33 spark.hadoop.mapreduce.input.fileinputformat.list-status.num-threads: 文件输入格式的线程数。 34 spark.hadoopRDD.ignoreEmptySplits: 是否忽略空分片。 35 spark.history.fs.cleaner.enabled: 是否启用历史文件系统清理器。 36 spark.history.fs.cleaner.interval: 历史文件系统清理器的清理间隔。 37 spark.history.fs.cleaner.maxAge: 历史文件系统清理器的最大年龄。 38 spark.history.fs.update.interval: 历史文件系统更新间隔。 39 spark.history.kerberos.enabled: 是否启用 Kerberos 认证。 40 spark.history.provider: 历史记录提供程序。 41 spark.history.retainedApplications: 保留的历史应用程序数量。 42 spark.history.store.maxDiskUsage: 历史存储的最大磁盘使用量。 43 spark.history.ui.maxApplications: 历史 UI 的最大应用程序数量。 44 spark.hive.server2.proxy.user: Hive Server2 代理用户。 45 spark.jars: Spark 应用程序所需的 Jar 包。 46 spark.kerberos.access.hadoopFileSystems: Kerberos 访问 Hadoop 文件系统。 47 spark.kryoserializer.buffer.max: Kryo 序列化器的最大缓冲区大小。 48 spark.kyuubi.client.ipAddress: Kyuubi 客户端的 IP 地址。 49 spark.kyuubi.engine.credentials: Kyuubi 引擎的凭证。 50 spark.kyuubi.engine.share.level: Kyuubi 引擎共享级别。 51 spark.kyuubi.engine.share.level.subdomain: Kyuubi 引擎共享级别子域。 52 spark.kyuubi.engine.submit.time: Kyuubi 引擎提交时间。 53 spark.kyuubi.ha.engine.ref.id: Kyuubi HA 引擎引用 ID。 54 spark.kyuubi.ha.namespace: Kyuubi HA 命名空间。 55 spark.kyuubi.ha.zookeeper.auth.keytab: Kyuubi HA ZooKeeper 认证 keytab。 56 spark.kyuubi.ha.zookeeper.auth.principal: Kyuubi HA ZooKeeper 认证 principal。 57 spark.kyuubi.ha.zookeeper.auth.type: Kyuubi HA ZooKeeper 认证类型。 58 spark.kyuubi.ha.zookeeper.namespace: Kyuubi HA ZooKeeper 命名空间。 59 spark.kyuubi.ha.zookeeper.quorum: Kyuubi HA ZooKeeper quorum。 60 spark.kyuubi.operation.result.max.rows: Kyuubi 操作结果的最大行数。 61 spark.kyuubi.session.engine.idle.timeout: Kyuubi 会话引擎空闲超时时间。 62 spark.locality.wait: 本地性等待时间。 63 spark.locality.wait.node: 节点本地性等待时间。 64 spark.locality.wait.process: 进程本地性等待时间。 65 spark.locality.wait.rack: 机架本地性等待时间。 66 spark.master: Spark Master 地址。 67 spark.maxRemoteBlockSizeFetchToMem: 最大远程块大小从磁盘到内存。 68 spark.network.timeout: 网络超时时间。 69 spark.org.apache.hadoop.yarn.server.webproxy.amfilter.AmIpFilter.param.PROXY_HOSTS: YARN Web 代理参数。 70 spark.org.apache.hadoop.yarn.server.webproxy.amfilter.AmIpFilter.param.PROXY_URI_BASES: YARN Web 代理 URI 基础路径。 71 spark.org.apache.hadoop.yarn.server.webproxy.amfilter.AmIpFilter.param.RM_HA_URLS: YARN Web 代理 RM HA URLs。 72 spark.redaction.regex: 日志内容的正则表达式用于数据遮蔽。 73 spark.reducer.maxBlocksInFlightPerAddress: 每个地址的最大块数。 74 spark.reducer.maxReqsInFlight: 最大并行请求数。 75 spark.repl.class.outputDir: REPL 类的输出目录。 76 spark.repl.class.uri: REPL 类的 URI。 77 spark.rpc.askTimeout: RPC 询问超时时间。 78 spark.scheduler.mode: Spark 调度模式。 79 spark.serializer: 序列化器。 80 spark.shuffle.detectCorrupt.useExtraMemory: 是否使用额外内存检测 Shuffle 数据的损坏。 81 spark.shuffle.file.buffer: Shuffle 文件的缓冲区大小。 82 spark.shuffle.io.maxRetries: Shuffle IO 的最大重试次数。 83 spark.shuffle.io.preferDirectBufs: 是否优先使用直接缓冲区。 84 spark.shuffle.io.retryWait: Shuffle IO 重试等待时间。 85 spark.shuffle.mapOutput.parallelAggregationThreshold: 并行聚合阈值。 86 spark.shuffle.readHostLocalDisk: 是否从本地磁盘读取 Shuffle 数据。 87 spark.shuffle.registration.maxAttempts: Shuffle 注册的最大尝试次数。 88 spark.shuffle.registration.timeout: Shuffle 注册的超时时间。 89 spark.shuffle.service.enabled: 是否启用 Shuffle 服务。 90 spark.shuffle.spill.diskWriteBufferSize: Shuffle Spill 磁盘写缓冲区大小。 91 spark.shuffle.unsafe.file.output.buffer: 不安全 Shuffle 文件输出缓冲区大小。 92 spark.shuffle.useOldFetchProtocol: 是否使用旧的 Fetch 协议。 93 spark.speculation: 是否启用任务推测执行。 94 spark.speculation.interval: 任务推测执行的间隔。 95 spark.speculation.multiplier: 任务推测执行的倍数。 96 spark.speculation.quantile: 任务推测执行的分位数。 97 spark.speculation.task.duration.threshold: 任务推测执行的持续时间阈值。 98 spark.sql.access.authorization.enable: 是否启用 SQL 访问授权。 99 spark.sql.access.iceberg.enable: 是否启用 Iceberg 表的 SQL 访问。 100 spark.sql.adaptive.advisoryPartitionSizeInBytes: 自适应执行中分区大小的建议值。 101 spark.sql.adaptive.autoBroadcastJoinThreshold: 自适应执行中自动广播连接的阈值。 102 spark.sql.adaptive.enabled: 是否启用自适应执行。 103 spark.sql.adaptive.fetchShuffleBlocksInBatch: 自适应执行中每批次获取 Shuffle 块的数量。 104 spark.sql.adaptive.maxShuffledHashJoinLocalMapThreshold: 自适应执行中本地 Map 阈值。 105 spark.sql.adaptive.nonEmptyPartitionRatioForBroadcastJoin: 自适应执行中非空分区比例的广播连接阈值。 106 spark.sql.adaptive.skewJoin.enabled: 自适应执行中是否启用倾斜连接。 107 spark.sql.adaptive.skewJoin.skewedPartitionFactor: 自适应执行中倾斜连接的分区因子。 108 spark.sql.adaptive.skewJoin.skewedPartitionThresholdInBytes: 自适应执行中倾斜连接的分区阈值。 109 spark.sql.autoBroadcastJoinThreshold: 自动广播连接的阈值。 110 spark.sql.broadcastTimeout: 广播连接的超时时间。 111 spark.sql.catalog.hive_catalog: Hive Catalog 名称。 112 spark.sql.catalog.hive_catalog.type: Hive Catalog 类型。 113 spark.sql.catalog.hive_catalog.url: Hive Catalog URL。 114 spark.sql.catalog.spark_catalog: Spark Catalog 名称。 115 spark.sql.catalog.spark_catalog.type: Spark Catalog 类型。 116 spark.sql.catalogImplementation: SQL Catalog 实现。 117 spark.sql.crossJoin.enabled: 是否启用跨连接。 118 spark.sql.execution.topKSortFallbackThreshold: 执行中 Top-K 排序的阈值。 119 spark.sql.extensions: SQL 扩展。 120 spark.sql.files.ignoreCorruptFiles: 是否忽略损坏的文件。 121 spark.sql.files.ignoreMissingFiles: 是否忽略缺失的文件。 122 spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes: 最终阶段执行中分区大小的建议值。 123 spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum: 最终阶段执行中合并分区的最小分区数。 124 spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor: 最终阶段执行中倾斜连接的分区因子。 125 spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes: 最终阶段执行中倾斜连接的分区阈值。 126 spark.sql.hive.convertInsertingPartitionedTable: Hive 表插入分区的转换。 127 spark.sql.hive.verifyPartitionPath: Hive 表分区路径验证。 128 spark.sql.legacy.castComplexTypesToString.enabled: 是否启用将复杂类型强制转换为字符串的遗留行为。 129 spark.sql.legacy.setCommandRejectsSparkCoreConfs: 是否拒绝设置 Spark Core 配置的遗留 set 命令。 130 spark.sql.legacy.timeParserPolicy: 时间解析策略。 131 spark.sql.optimizer.finalStageConfigIsolation.enabled: 是否启用最终阶段配置隔离。 132 spark.sql.parquet.recordLevelFilter.enabled: 是否启用 Parquet 记录级别过滤。 133 spark.sql.queryExecutionListeners: 查询执行监听器。 134 spark.sql.runSQLOnFiles: 是否在文件上运行 SQL 查询。 135 spark.sql.shuffle.partitions: Shuffle 阶段的分区数。 136 spark.sql.statistics.fallBackToHdfs: 是否回退到 HDFS 统计信息。 137 spark.sql.storeAssignmentPolicy: 存储分配策略。 138 spark.submit.deployMode: Spark 应用程序的部署模式。 139 spark.submit.pyFiles: 提交给 Spark 应用程序的 Python 文件。 140 spark.ui.filters: Spark UI 的过滤器。 141 spark.ui.port: Spark UI 的端口。 142 spark.yarn.am.cores: YARN ApplicationMaster 的 CPU 核心数。 143 spark.yarn.am.memory: YARN ApplicationMaster 的内存大小。 144 spark.yarn.am.memoryOverhead: YARN ApplicationMaster 的内存 overhead。 145 spark.yarn.am.waitTime: YARN ApplicationMaster 的等待时间。 146 spark.yarn.historyServer.address: YARN 历史服务器地址。 147 spark.yarn.queue: YARN 队列。 148 spark.yarn.tags: YARN 标签。
http://www.dnsts.com.cn/news/33577.html

相关文章:

  • 南京市建设工程档案馆网站旅游网站开发文档怎么写
  • 中小型企业网站大全免费永久云服务器购买
  • 哈尔滨网站建设好wordpress前台登陆插件
  • 关于公司申请建设门户网站的请示做个免费的网站
  • 浙江建筑网站适合一个人开的实体店
  • 网站开发 技术方案平面设计师兼职网站
  • 优化推广网站排名wordpress 编辑模板下载
  • 中英 网站模板 带手机版网站开发 前景
  • 想要学做网站需要什么wordpress ico 上传
  • 网站推广找黑马培训价目表
  • 织梦搭建商城网站腾讯wordpress
  • 网站开发团队人数构成福州模板建站代理
  • rp网站自动跳转图片怎么做网站设计论坛
  • 网站技能培训班有哪些西安到北京火车时刻表查询
  • 网站建设论文摘要wordpress 印象码
  • 做网站知识大全深圳高端网页设计公司
  • wordpress建设购物网站网站开发图片压缩
  • 旅游网站建设实训报告宿迁房价
  • 河北省建设厅正规网站巩义网站建设与制作
  • 做网站卖广告挣几百万微企免费做网站
  • 推广普通话内容100字宁波网站搜索优化
  • 云南省住房和城乡建设厅网站宜昌公司做网站
  • 郴州建设网站的公司网站后台都需要什么软件做
  • 新网站如何备案南京 网站设计
  • 民政 门户网站 建设房建设计网站好
  • 做标签的网站深圳建企业网站公司
  • 昆明有多少做网站的公司百度推广要多少钱
  • 化工类网站模板怎么设置网站支付功能
  • seo网站优化服务商高新快速建设网站电话
  • 专做国际时事评论网站网站起名字大全