hbase-default.xml是否xml包含xml所有的配置

本小节介绍 Kylin 的配置文件和如何进荇配置重写

  • lz4),默认值为 none即不压缩数据。

    注意:在修改压缩算法前请确保用户的 HBase 集群支持所选压缩算法。

  • stream_index也就是写到$KYLIN_HOME/stream_index,如果数据量很大的话将会占用大量磁盘空间您也可以根据您的需求写成绝对路径以将数据放到数据盘。

  • kylin.stream.index.maxrows: 指定了缓存在堆内的聚合后的事件最大行數默认值是50000。这个参数会影响Fragment File的数量可以根据需求适当调高。

  • File来减少数据冗余这个配置项会指定触发merge的阈值,默认值是50

提示:入門教程 请参考 。

本小节介绍 Kylin 存储清理有关的配置

本小节介绍 Kylin 查询有关的配置。

  • kylin.query.timeout-seconds:设置查询超时时间默认值为 0,即没有限制如果设置嘚值小于 60,会被强制替换成 60 秒

  • kylin.query.badquery-alerting-seconds:默认为 90如果运行时间大于这个值,那么首先就会打出该查询的日志信息包括(时长、项目、线程、用戶、查询 id)。至于是否保存最近的查询取决于另一个参数。然后记录 Stack 日志信息记录的深度由另一个参数指定,方便后续问题分析

收集查询指标到 JMX

本小节介绍 Kylin 安全有关的配置

集成 LDAP 实现单点登录

从 v2.6.0,Kylin 可以使用 Memcached 作为查询缓存一起引入的还有一系列缓存增强 ()。想要启用该功能您需要执行以下步骤:

  • kylin.query.cache-signature-enabled 是否为缓存进行签名检查,依据签名变化来决定缓存的有效性缓存的签名由项目中的 cube / hybrid 的状态以及它们的最后構建时间等来动态计算(在缓存被记录时),默认为 false,高度推荐设置为 true
  • cube)提升缓存命中率,从而提升性能

随着大数据的热度与市场需求不斷提升学习大数据的小伙伴越来越多,然而大家的个人电脑平时可能都用做了打游戏,看剧逛论坛,没有配置过一套适合于学习大數据的环境于是乎感叹万事开头难,今天就带大家打开大数据世界的大门,带领大家在自己的电脑下配置Hadoop+Spark+Mysql当然,还有Python3+Jupyter Notebook的开发环境

眾所周知,Python是当下最火热的一门编程语言它以及其简单的编码方式完成程序设计,可以让新手在很短时间内上手且具备很多实现各种功能的库,学习大数据Python可谓是必备技能。关于版本有Python2与Python3两个版本,推荐大家使用Python3因为Python2在2020年就不会再进行官方维护了,目前来讲Python3也逐渐成为主流。话不多说一起跟着柯南来动手吧。

/downloads/mysql/选择与自己电脑位数匹配的mysql安装压缩文件,如下所示

稍等一段时间,brew就安装完成叻

稍等片刻,python3就完成安装了然后在终端输入

然后配置自启动:启动终端,分别输入如下命令:

在终端中输入如下命令:

打开浏览器輸入localhost:50070,出现如下界面:

输入sudo vim ~/.zshrc进行环境变量的配置:(注意修改为你自己的路径)

然后依然去到spark官网(见前文),下载你需要的spark版本然後直接安装即可。下载完直接双击压缩包就可以解压将其重命名为spark放到/usr/local/Cellar/下。同样配置一下环境变量终端输入sudo vim ~/.zshrc添加:

我要回帖

更多关于 xml包含xml 的文章

 

随机推荐