【全版本】【插件】Spark 服务器插件 分析你的服务器耗能
Spark 服务器插件 分析你的服务器耗能适应版本:所有Bukkit版本
应用领域:分析服务器的在出问题的时候加入方法:下载后把Jar包放到plugin文件夹,重启服务器,设置配置文件,重载运行截图:
[*]
官方资料 ✪ 指令使用教程:/spark profiler 是一个用于控制 Spark Profiler 的子命令。它需要 spark 或 spark.profiler 权限才能运行。如果 Spark Profiler 已经正在后台运行,你可以使用以下命令:
[*]/spark profiler open 打开 Profiler 查看器页面而不停止 Profiler。
[*]/spark profiler stop 停止 Profiler 并查看结果。
[*]/spark profiler cancel 取消 Profiler 的停止并不上传结果。
对于基本操作,可以使用以下命令:
[*]/spark profiler start 以默认的操作模式启动 Profiler。
[*]/spark profiler stop 停止 Profiler 并查看结果。
[*]/spark profiler info 检查 Profiler 的当前状态。
还有一些额外的标志可以用来定制 Profiler 的行为。你可以使用:
[*]/spark profiler start --timeout <seconds> 启动 Profiler 并在 x 秒后自动停止。
[*]/spark profiler start --thread * 启动 Profiler 并跟踪所有线程。
[*]/spark profiler start --alloc 启动 Profiler 并分析内存分配(内存压力),而不是 CPU 使用情况。
健康报告/spark health健康子命令生成服务器的健康报告,包括 TPS、CPU、内存和磁盘使用情况。需要权限 spark 或 spark.healthreport。您可以使用:
[*]/spark health --memory 包括有关 JVM 内存使用的附加信息。
[*]/spark health --network 包括关于系统网络使用的附加信息。
PING 子命令/spark pingPING 子命令打印平均(或特定)玩家 ping 往返时间的信息。您可以通过以下方式使用 PING 子命令:
[*]/spark ping 查看所有玩家的平均 ping 信息。
[*]/spark ping --player <username> 查看指定玩家当前的 ping RTT。需要权限 spark 或 spark.ping。
TPS 子命令/spark tpsTPS 子命令打印服务器的 TPS(每秒周期数)速率和 CPU 使用率。需要权限 spark 或 spark.tps。TICKMONITOR 子命令/spark tickmonitorTICKMONITOR 子命令控制 Tick 监控系统。需要权限 spark 或 spark.tickmonitor。在不加任何额外参数的情况下直接运行该命令将打开或关闭系统。您可以使用:
[*]/spark tickmonitor --threshold <percent> 启动 Tick 监控,仅报告超过平均 Tick 持续时间的百分比增加的 Tick。
[*]/spark tickmonitor --threshold-tick <milliseconds> 启动 Tick 监控,仅报告超过给定持续时间的毫秒数的 Tick。
[*]/spark tickmonitor --without-gc 启动 Tick 监控并禁用关于 GC 活动报告。
内存/spark gcGC 子命令显示服务器垃圾回收(GC)历史记录的相关信息。需要权限 spark 或 spark.gc。/spark gcmonitorGCMONITOR 子命令控制垃圾回收(GC)监测系统。需要权限 spark 或 spark.gcmonitor。只需执行此命令即可启用或禁用系统。/spark heapsummaryHEAPSUMMARY 子命令生成了一个新的内存(堆)摘要并将其上载到查看器中。需要权限 spark 或 spark.heapsummary。您可以使用:
[*]/spark heapsummary --run-gc-before 建议在生成堆概要之前 JVM 执行垃圾收集。(已弃用)
/spark heapdumpHEAPDUMP 子命令会生成一个新的堆转储(.hprof 快照)文件并存盘。需要权限 spark 或 spark.heapdump。您可以使用:
[*]/spark heapdump --compress <type> 指定应使用给定的类型压缩堆转储。支持的类型有 gzip、xz 和 lzma。
[*]/spark heapdump --include-non-live 指定应该包含“非活动”对象(无法访问且适合进行垃圾回收的对象)。(已弃用)
[*]/spark heapdump --run-gc-before 建议在生成堆转储之前 JVM 执行垃圾收集。(已弃用)
其他/spark activityACTIVITY 子命令显示了最近由 Spark 执行的活动相关信息。需要权限 spark 或 spark.activity。您可以使用:
[*]/spark activity --page <page no> 查看特定的页码。
更多内容请前往:https://www.spigotmc.org/resources/spark.57242/
:):):):):):)
页:
[1]