java程序员
我的博客即将入驻“云栖社区”,诚邀技术同仁一同入驻。
看了下mysql-connector-5.1.40版本中,如果设置failoverReadOnly=true (即默认值,参考链接),当mysql连接failover时,会根据jdbc连接串将当前连接的readOnly值设置为true (第8行代码) 1 2 3 4 ...
1. UnboundedMailbox is the default unbounded MailboxType used by Akka Actors ”无界邮箱“ 是akka actors默认使用的邮箱, UnboundedMailbox继承了MailboxType /** *...
recursive value x$5 needs type的原因是使用了一个类型不确定的变量,例如 val (id, name) = (id, getName(id)) 其中id是个变量,其值还不确定, 就在getName(id)方法上使用.。
原因:学习ConcurrentLinkedQueue是看到akka框架的默认邮箱是使用ConcurrentLinkedQueue实现的。 1. ConcurrentLinkedQueue在java.
1. Can't get Kerberos realm 原因分析: 原始代码为: org.apache.hadoop.security.UserGroupInformation.setConfiguration(conf) sun.
1.volatile关键字的两层语义 一旦一个共享变量(类的成员变量、类的静态成员变量)被volatile修饰之后,那么就具备了两层语义: 1)保证了不同线程对这个变量进行操作时的可见性,即一个线程修改了某个变量的值,这新值对其他线程来说是立即可见的。
回环设备(loop-back devices) 实验环境 centos7.2 回环设备( 'loopback device')允许用户以一个普通磁盘文件虚拟一个块设备。(磁盘文件 --> 块设备) 设想一个磁盘设备,对它的所有读写操作都将被重定向到读写一个名为 disk-image 的普通文件而非操作实际磁盘或分区的轨道和扇区。
1. 打开virt-manager,添加一块磁盘。 Add Hardware --> 选中Storage --> Manager (操作参考下图) 点击Manager之后,弹出Choose Storade Volume,然后点击+号,创建一个Volume (命名/格式/大小),点击finish。
1. 选择两台机器(这里选的centos6.5 final),安装相同版本的mysql yum install mysql ; yum install mysql-server; 2.
需要为类增加一个接受String的构造函数: 例如: public class B { private String name;public B(String b) { } public String getName() { return name; } public void setName(String name) { this.
[root@node1 ~]# fdisk -l Disk /dev/vda: 107.4 GB, 107374182400 bytes, 209715200 sectors // 扇区个数 Units = sectors of 1 * 512 = 512 bytes // 柱面单元...
挂载好新硬盘后输入fdisk -l命令看当前磁盘信息 可以看到除了当前的第一块硬盘外还有一块sdb的第二块硬盘,然后用fdisk /dev/sdb 进行分区 进入fdisk命令,输入h可以看到该命令的帮助,按n进行分区 这里输入e即分为逻辑分区,按p即分为主分区,我们要将这...
先yum install安装如下包: container-selinux-2.21-1.el7.noarch libcgroup-0.41-13.el7.x86_64 libtool-ltdl-2.
bash是borne again shell的缩写,它是shell的一种,Linux上默认采用的是bash。 shell脚本中的方法带不带function的区别,例如: function foo () { } foo () { } 功能完全一样, 区别是第二种兼容性更好。
背景: node1不能访问外网, node2可以访问外网,node1通过node2的代理服务来访问外网。 1. node1不能访问外网 vim /etc/resolv.conf 注释掉DNS配置文件 2.
1. 为什么需要依赖注入 控制反转用于解耦,解的究竟是谁和谁的耦?这是我在最初了解依赖注入时候产生的第一个问题。 下面我引用Martin Flower在解释介绍注入时使用的一部分代码来说明这个问题。
打开本地的.git/config 加入 [credential] helper = store 保存,第一次需要输入用户名密码,输入一次密码后第二次就会记住密码了不会再提示输入用户名及密码
转自: http://hackershell.cn/?p=821 NameNode的HA可以个人认为简单分为共享editLog机制和ZKFC对NameNode状态的控制 在此之前,我先提几个问题: 一般导致NameNode切换的原因 ZKFC的作用是什么?如何判断一个NN...
yum search ifconfig 看到 net-tools.x86_64 : Basic networking tools 安装net-tools: yum install net-tools
拷贝一下文件到新的文件里 [Desktop Entry]Categories=Development;Comment[zh_CN]=Comment=Exec=/usr/local/idea-IU-171.
f you want to set the editor only for Git, do either (you don’t need both): Set core.editor in your Git config: git config --global core.
at org.apache.hadoop.ha.ActiveStandbyElector$WatcherWithClientRef.waitForZKConnectionEvent(ActiveStandbyElector.
git reset --soft fd35h567 (fd35h567表示git log看到的提交号) --soft Does not touch the index file nor the working tree at all (but re...
ntp时间不一致
执行 mountpoint -q /test/mountecho $? 如果是0表示已经mount mountpoint -q /test/mount || mount -o bind /some/directory/here /test/mount
删除hdfs上的/hbasehadoop fs -rm -r /hbase删除zookeeper上的/hbasezookeeper-client -server 192.168.1.2:2181 rmr /hbase
前提: 系统centos 7 docker version 1.10.3 使用systemd启动docker 访问方式: 修改/usr/lib/systemd/system/docker.service中的ExecStart,添加host " -H tcp://0.0.0.0:1234 " ExecStart=/usr/bin/docker daemon $DOCKER_OPTS -H tcp://0.0.0.0:1234执行systemctl --system daemon-reload, 将docker守护进程绑定到网络接口1234上。
原因: hdfs-site.xml中的配置为: dfs.datanode.du.reserved 400000000000 dfs.datanode.du.reserved值太大了,预留近400G。 设小一点就可以了10737418240,例如10G。
原因: hdfs-site.xml中的配置为: dfs.datanode.du.reserved 400000000000 dfs.datanode.du.reserved值太大了,预留近400G。 设小一点就可以了10737418240,例如10G。
原因: hdfs-site.xml中的配置为: dfs.datanode.failed.volumes.tolerated 1 dfs.datanode.data.dir /datanode/data dfs.datanode.data.dir只配了一个目录,并且dfs.datanode.failed.volumes.tolerated设置成了1。
Hbase master启动报错: java.lang.RuntimeException: Failed construction of Master: class org.apache.hadoop.
一、错误起因 Active NameNode日志出现异常IPC‘s epoch [X] is less than the last promised epoch [X+1],出现短期的双Active 我配置的ha自动切换,但是发现STandByNameNode是active,我强制手动切换了三次,STandByNameNode就无法访问了,估计是这个问题。
[lxl@node1 ~]# df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/centos-root 49G 34G 15G 70% / devtmpfs 7.
2017-02-27 16:19:44,739 ERROR datanode.DataNode: Initialization failed for Block pool (Datanode Uuid unassigned) service to IP1:8020 Invalid volume f...
netstat -tunlp | grep 443
jsp 查看java进程: 6448 main 然后,使用jinfo pid 查看: jinfo 6448 有一行VM Flages:表示启动参数 VM Flags: -Dproc_main -****
[ -a FILE ] 如果 FILE 存在则为真。 [ -b FILE ] 如果 FILE 存在且是一个块特殊文件则为真。 [ -c FILE ] 如果 FILE 存在且是一个字特殊文件则为真。
Option的解释: Represents optional values. Instances of Option are either an instance of scala.Some or the object None.
1. 修改container 1.1 执行 docker images 查看目前的所有images: REPOSITORY TAG IMAGE ID CREATED SIZEg...
2017-01-05 11:07:39,490 WARN zookeeper.RecoverableZooKeeper: Node /hyperbase1/rs/tw-node1217,60020,1483585655650 already deleted, retry=false2017-01-05 11:07:39,490 WARN regionserver.
生成patch文件: svn diff > patchFile // 整个工程的变动生成patch 或svn diff file > patchFile // 某个文件单独变动的patch svn回滚: svn revert FILE // 单个文件回滚 svn revert DIR -...
vim /var/kerberos/krb5kdc/kadm5.acl 将*e改成* /etc/init.d/kadmin restart 重启kadmin
/etc/hadoop/conf的软链接(/etc/hdfs/conf)不正确,应该是/etc/yarn/conf
/etc/hadoop/conf的软链接(/etc/hdfs/conf)不正确,应该是/etc/yarn/conf
启动费zokeeper失败,报错如下:Connection broken for id 62, my id = 70, error = 原因是因为zoo.cfg中server.id不正确。 server.
安装hbase时候报错: File system needs to be upgraded. You have version null and I want version 7 注: 我安装的hbase依赖于hdfs, hdfs是有nameservice的。
virsh创建快照: virsh snapshot-create-as image的名称 snapshot的名称 例如: virsh snapshot-create-as 172.
raw转qcow2命令 : qemu-img convert -f raw test.img -O qcow2 test.img.qcow2 转晚之后,还需要virsh edit test,修改里面的磁盘type为qcow2. 修改为