scala – 如何在IntelliJ IDEA中设置Spark应用程序的日志记录级别?

前端之家收集整理的这篇文章主要介绍了scala – 如何在IntelliJ IDEA中设置Spark应用程序的日志记录级别?前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我正在使用通过SBT创建的IntelliJ中的 Scala项目.该项目将Spark作为其依赖项之一.我还处于开发阶段,所以一切都在我的本地机器上运行.

例如,如何更改日志级别等Spark配置?

解决方法

如果您正在使用IDE进行本地开发,则可以在运行时更改日志级别:

LogManager.getRootLogger.setLevel(Level.ALL)

Ps:在代码中创建SparkContext / sqlContext之后放置该行.

猜你在找的IDEA相关文章