本人就读于湖北师范大学于计算机科学与技术,大二在读。想学习和了解linux相关知识,就开始了云服务器的选购。阿里云的“飞天加速计划·高校学生在家实践”活动是自己在浏览阿里云的学生优惠时看到的,然后就申请了免费的ESC云服务器。
在进入云服务器之前,我们要学会最基础的操作指令。
cd /home/hadoop #把/home/hadoop设置为当前目录
cd .. #返回上一级目录
cd ~ #进入到当前Linux系统登录用户的主目录(或主文件夹)。在 Linux 系统中,~代表的是用户的主文件夹,
#即“/home/用户名”这个目录,如果当前登录用户名为 hadoop,则~就代表“/home/hadoop/”这个目录
ls #查看当前目录中的文件
ls -l #查看文件和目录的权限信息
mkdir input #在当前目录下创建input子目录
mkdir -p src/main/scala #在当前目录下,创建多级子目录src/main/scala
cat /proc/version #查看Linux系统内核版本信息
cat /home/hadoop/word.txt #把/home/hadoop/word.txt这个文件全部内容显示到屏幕上
cat file1 file2 > file3 #把当前目录下的file1和file2两个文件进行合并生成文件file3
head -5 word.txt #把当前目录下的word.txt文件中的前5行内容显示到屏幕上
cp /home/hadoop/word.txt /usr/local/ #把/home/hadoop/word.txt文件复制到“/usr/local”目录下
rm ./word.txt #删除当前目录下的word.txt文件
rm –r ./test #删除当前目录下的test目录及其下面的所有文件
rm –r test* #删除当面目录下所有以test开头的目录和文件
tar -zxf ~/下载/spark-2.1.0.tgz -C /usr/local/ #把spark-2.1.0.tgz这个压缩文件解压到/usr/local目录下
mv spark-2.1.0 spark #把spark-2.1.0目录重新命名为spark
chown -R hadoop:hadoop ./spark # hadoop是当前登录Linux系统的用户名,把当前目录下的spark子目录的所有权限,
#赋予给用户hadoop
ifconfig #查看本机IP地址信息
exit #退出并关闭Linux终端
接下来,我将介绍我的阿里云ESC使用体验。
首先我们进入管理面板。
1.远程连接这里可以通过WorkBench直接登陆到服务器的命令行模式。
2.监控在这个面板可以清晰地看到服务器的性能和运行情况,比如CPU使用率,内存使用率和系统负载等
3.安全组何为安全组呢?顾名思义,安全组就是为服务器安全设置的,相当于一个虚拟的防火墙,在这里你可以选择开放服务器的各个端口,当然,开放的越多,安全性就越低,越容易被攻击。
4.升降配和变更带宽这两个操作均可以改变你的实例即云服务器的配置,但是,需要收取一定的费用
5.远程命令/文件在这个面板可以向服务器发送shell命令和传输文件,例如要把tomcat部署到服务器上,就需要先传输tomcat的安装包,然后执行shell命令就能部署成功了。
6.操作记录在这里,记录了你对这个实例的所有操作,有实例配置,实例状态,实例属性,关联安全组,关联磁盘,关联弹性网卡变更的所有记录。
感觉整个流程使用下来,体验还是不错的。如果以后有需要,自己也会选择继续使用阿里云的服务器。以后的工作什么遇到有需要的,阿里云服务器也是一个不错的选择。阿里是一个大公司,对于服务器这方面肯定有充足的经验,这一整套服务也是相应发很完善。给大家一个更低的成本使用服务器,也是让资源充分得到利用。