云起实验室第五期使用

简介: 云起实验室第五期使用

1、HDFS上传文件

1.1 登录远程主机

在终端中输入连接命令ssh root@[ipaddress]。您需要将[ipaddress]替换成第3步中复制公网地址,例如:

ssh root@xxx.xxx.xxx.xxx
然后输入登录密码:@Aliyun2021;

1.2 创建目录上传文件

执行如下命令,创建HDFS目录

hdfs dfs -mkdir -p /data/student

创建数据文件u.txt

创建u.txt文件

vim u.txt

写入数据集到u.txt

196 242 3 881250949
186 302 3 891717742
22 377 1 878887116
244 51 2 880606923
166 346 1 886397596
298 474 4 884182806
115 265 2 881171488
253 465 5 891628467
305 451 3 886324817
6 86 3 883603013
62 257 2 879372434
286 1014 5 879781125
200 222 5 876042340
210 40 3 891035994
224 29 3 888104457
303 785 3 879485318
122 387 5 879270459
194 274 2 879539794
291 1042 4 874834944
234 1184 2 892079237
119 392 4 886176814
167 486 4 892738452
299 144 4 877881320
291 118 2 874833878
308 1 4 887736532
95 546 2 879196566
38 95 5 892430094
102 768 2 883748450
63 277 4 875747401
160 234 5 876861185
50 246 3 877052329
301 98 4 882075827
225 193 4 879539727
290 88 4 880731963
97 194 3 884238860
157 274 4 886890835
181 1081 1 878962623
278 603 5 891295330
276 796 1 874791932
7 32 4 891350932
10 16 4 877888877
284 304 4 885329322
201 979 2 884114233
276 564 3 874791805
287 327 5 875333916
246 201 5 884921594
242 1137 5 879741196
249 241 5 879641194
99 4 5 886519097
178 332 3 882823437
251 100 4 886271884
81 432 2 876535131
260 322 4 890618898
25 181 5 885853415
59 196 5 888205088
72 679 2 880037164
87 384 4 879877127
290 143 5 880474293
42 423 5 881107687
292 515 4 881103977
115 20 3 881171009
20 288 1 879667584
201 219 4 884112673
13 526 3 882141053
246 919 4 884920949
138 26 5 879024232
167 232 1 892738341
60 427 5 883326620
57 304 5 883698581
223 274 4 891550094
189 512 4 893277702
243 15 3 879987440
92 1049 1 890251826
246 416 3 884923047
194 165 4 879546723
241 690 2 887249482
178 248 4 882823954
254 1444 3 886475558
293 5 3 888906576
127 229 5 884364867
225 237 5 879539643
299 229 3 878192429
225 480 5 879540748
276 54 3 874791025
291 144 5 874835091
222 366 4 878183381
267 518 5 878971773
42 403 3 881108684
11 111 4 891903862
95 625 4 888954412
8 338 4 879361873
162 25 4 877635573
87 1016 4 879876194
279 154 5 875296291
145 275 2 885557505
119 1153 5 874781198
62 498 4 879373848
62 382 3 879375537
28 209 4 881961214
135 23 4 879857765
32 294 3 883709863
90 382 5 891383835
286 208 4 877531942
293 685 3 888905170
216 144 4 880234639
166 328 5 886397722

上传文件到hadoop文件系统

hdfs dfs -put u.txt /data/student

查看上传文件

hdfs dfs -ls /data/student

2、hive使用

2.1 登录hive

hive

2.2 创建表

CREATE TABLE emrusers (
userid INT,
movieid INT,
rating INT,
unixtime STRING )
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\t'
;

2.3 导入hdfs数据集到hive数据表

LOAD DATA INPATH '/data/student/u.txt' INTO TABLE emrusers;

2.4 hive表操作

select * from emrusers limit 5; --查询5条数据

select count(*) from emrusers; -- 查询总记录数

select movieid,sum(rating) as rat from emrusers group by movieid order by rat desc limit 3; --查询评分最高的三条数据

1、创建集群

在右侧概览页面Elasticsearch区域中,单击集群管理。
在Elasticsearch实例列表中,单击实例ID。
在左侧导航栏,选择配置与管理 > 可视化控制。
在Kibana区域中,单击修改配置。
开启Kibana私网访问,此变更过程需等待3-5分钟。
返回上级页面,在Kibana区域中,单击公网入口。
复制左侧云产品资源列表下的Elasticsearch登录名和Elasticsearch登录密码,至Kibana登录页面的账号和密码,单击登录。
在登录成功页面,单击Explore on my own。
在左侧导航栏,单击Dev Tools(开发工具),再单击Go to work。
在Console页签下,执行如下命令,开启阿里云ES实例的自动创建索引功能。

开启自动创建索引

PUT _cluster/settings
{
"persistent": {
"action.auto_create_index": "true"
}
}

2、创建采集器

在创建采集器窗口中,单击Metricbeat。填写采集器的一些配置信息如下:

在配置文件添加监控指标:

metricbeat.modules:

  • module: system
    metricsets:

    • cpu
    • load
    • memory
    • network
    • process
    • process_summary
    • uptime
    • socket_summary
    • core
    • diskio
    • filesystem
    • fsstat

    enabled: true
    period: 10s
    processes: ['.*']
    cpu.metrics: ["percentages"]
    core.metrics: ["percentages"]

然后等待插件安装,完成后通过命令查看索引创建情况:

GET _cat/indices?v
在kibana的dashboard中搜索[Metricbeat System] Overview。然后就能看到采集到的监控指标

相关实践学习
以电商场景为例搭建AI语义搜索应用
本实验旨在通过阿里云Elasticsearch结合阿里云搜索开发工作台AI模型服务,构建一个高效、精准的语义搜索系统,模拟电商场景,深入理解AI搜索技术原理并掌握其实现过程。
ElasticSearch 最新快速入门教程
本课程由千锋教育提供。全文搜索的需求非常大。而开源的解决办法Elasricsearch(Elastic)就是一个非常好的工具。目前是全文搜索引擎的首选。本系列教程由浅入深讲解了在CentOS7系统下如何搭建ElasticSearch,如何使用Kibana实现各种方式的搜索并详细分析了搜索的原理,最后讲解了在Java应用中如何集成ElasticSearch并实现搜索。  
目录
相关文章
|
存储 Cloud Native Linux
windows检测进程是否存在?强制杀死进程
windows检测进程是否存在?强制杀死进程
|
8月前
|
运维 数据挖掘 容器
埋点系统客户案例-金融媒体为何选择ClkLog替换10万年费的SaaS平台?
今天,我们继续为大家带来 ClkLog 用户回访系列,本期采访嘉宾是一家国内知名金融媒体平台的运维负责人——严老师。 这家金融媒体平台专注于全球财经新闻、市场动态和投资分析,提供涵盖股票、债券、外汇、大宗商品等领域的实时市场动态、深度分析、行业报告及专家观点。 他们曾使用业内知名的数据分析系统,但出于成本优化的考虑,开启了一轮新的产品选型。最终,ClkLog成功“打动”了他们,让我们一起来看看其中的关键因素。
302 60
埋点系统客户案例-金融媒体为何选择ClkLog替换10万年费的SaaS平台?
|
XML API Android开发
码农之重学安卓:利用androidx.preference 快速创建一、二级设置菜单(demo)
本文介绍了如何使用androidx.preference库快速创建具有一级和二级菜单的Android设置界面的步骤和示例代码。
500 1
码农之重学安卓:利用androidx.preference 快速创建一、二级设置菜单(demo)
|
9月前
|
机器学习/深度学习 人工智能 缓存
MHA2MLA:0.3%数据微调!复旦团队开源推理加速神器,KV缓存狂降96.87%
MHA2MLA是复旦大学、华东师范大学、上海AI Lab等机构联合推出的数据高效微调方法,通过引入多头潜在注意力机制(MLA),显著优化基于Transformer的LLM推理效率,降低推理成本。
355 1
MHA2MLA:0.3%数据微调!复旦团队开源推理加速神器,KV缓存狂降96.87%
|
数据采集 存储 数据挖掘
使用Python实现高效的数据清洗
数据清洗是数据分析和挖掘中必不可少的一环,但手动清洗大量数据非常繁琐,容易出错且耗费时间。本文将介绍如何使用Python编写高效的数据清洗程序,通过代码实现数据清洗过程,提高清洗效率和数据准确性。
|
Web App开发 Java 视频直播
FFmpeg开发笔记(四十九)助您在毕业设计中脱颖而出的几个流行APP
对于软件、计算机等专业的毕业生,毕业设计需实现实用软件或APP。新颖的设计应结合最新技术,如5G时代的音视频技术。示例包括: 1. **短视频分享APP**: 集成FFmpeg实现视频剪辑功能,如添加字幕、转场特效等。 2. **电商购物APP**: 具备直播带货功能,使用RTMP/SRT协议支持流畅直播体验。 3. **同城生活APP**: 引入WebRTC技术实现可信的视频通话功能。这些应用不仅实用,还能展示开发者紧跟技术潮流的能力。
238 4
FFmpeg开发笔记(四十九)助您在毕业设计中脱颖而出的几个流行APP
|
运维 监控 Serverless
一键开启 GPU 闲置模式,基于函数计算低成本部署 Google Gemma 模型服务
本文介绍如何使用函数计算 GPU 实例闲置模式低成本、快速的部署 Google Gemma 模型服务。
165287 58
|
缓存 关系型数据库 数据库
PostgreSQL的性能
PostgreSQL的性能
613 2
|
人工智能 智能硬件
如何在一周内摸清一个行业:ChatGPT + 麦肯锡关键词分析法
如何在一周内摸清一个行业:ChatGPT + 麦肯锡关键词分析法
2582 0
如何在一周内摸清一个行业:ChatGPT + 麦肯锡关键词分析法