官方资料 ✪ 指令使用教程:
/spark profiler 是一个用于控制 Spark Profiler 的子命令。它需要 spark 或 spark.profiler 权限才能运行。如果 Spark Profiler 已经正在后台运行,你可以使用以下命令:
- /spark profiler open 打开 Profiler 查看器页面而不停止 Profiler。
- /spark profiler stop 停止 Profiler 并查看结果。
- /spark profiler cancel 取消 Profiler 的停止并不上传结果。
对于基本操作,可以使用以下命令:
- /spark profiler start 以默认的操作模式启动 Profiler。
- /spark profiler stop 停止 Profiler 并查看结果。
- /spark profiler info 检查 Profiler 的当前状态。
还有一些额外的标志可以用来定制 Profiler 的行为。你可以使用:
- /spark profiler start --timeout <seconds> 启动 Profiler 并在 x 秒后自动停止。
- /spark profiler start --thread * 启动 Profiler 并跟踪所有线程。
- /spark profiler start --alloc 启动 Profiler 并分析内存分配(内存压力),而不是 CPU 使用情况。
健康报告
/spark health
健康子命令生成服务器的健康报告,包括 TPS、CPU、内存和磁盘使用情况。需要权限 spark 或 spark.healthreport。您可以使用:
- /spark health --memory 包括有关 JVM 内存使用的附加信息。
- /spark health --network 包括关于系统网络使用的附加信息。
PING 子命令
/spark ping
PING 子命令打印平均(或特定)玩家 ping 往返时间的信息。您可以通过以下方式使用 PING 子命令:
- /spark ping 查看所有玩家的平均 ping 信息。
- /spark ping --player <username> 查看指定玩家当前的 ping RTT。需要权限 spark 或 spark.ping。
TPS 子命令
/spark tps
TPS 子命令打印服务器的 TPS(每秒周期数)速率和 CPU 使用率。需要权限 spark 或 spark.tps。
TICKMONITOR 子命令
/spark tickmonitor
TICKMONITOR 子命令控制 Tick 监控系统。需要权限 spark 或 spark.tickmonitor。在不加任何额外参数的情况下直接运行该命令将打开或关闭系统。您可以使用:
- /spark tickmonitor --threshold <percent> 启动 Tick 监控,仅报告超过平均 Tick 持续时间的百分比增加的 Tick。
- /spark tickmonitor --threshold-tick <milliseconds> 启动 Tick 监控,仅报告超过给定持续时间的毫秒数的 Tick。
- /spark tickmonitor --without-gc 启动 Tick 监控并禁用关于 GC 活动报告。
内存
/spark gc
GC 子命令显示服务器垃圾回收(GC)历史记录的相关信息。需要权限 spark 或 spark.gc。
/spark gcmonitor
GCMONITOR 子命令控制垃圾回收(GC)监测系统。需要权限 spark 或 spark.gcmonitor。只需执行此命令即可启用或禁用系统。
/spark heapsummary
HEAPSUMMARY 子命令生成了一个新的内存(堆)摘要并将其上载到查看器中。需要权限 spark 或 spark.heapsummary。您可以使用:
- /spark heapsummary --run-gc-before 建议在生成堆概要之前 JVM 执行垃圾收集。(已弃用)
/spark heapdump
HEAPDUMP 子命令会生成一个新的堆转储(.hprof 快照)文件并存盘。需要权限 spark 或 spark.heapdump。您可以使用:
- /spark heapdump --compress <type> 指定应使用给定的类型压缩堆转储。支持的类型有 gzip、xz 和 lzma。
- /spark heapdump --include-non-live 指定应该包含“非活动”对象(无法访问且适合进行垃圾回收的对象)。(已弃用)
- /spark heapdump --run-gc-before 建议在生成堆转储之前 JVM 执行垃圾收集。(已弃用)
其他
/spark activity
ACTIVITY 子命令显示了最近由 Spark 执行的活动相关信息。需要权限 spark 或 spark.activity。您可以使用: