飞天加速计划-高校学生在家实践经验总结

简介: 高校学生在家实践经验总结,分为三部分,主要介绍了认识这个活动的经过,使用经验,以及对未来的展望。

第一部分
我是南京理工大学软件工程专业的学生。目前因为疫情影响,足不出户使用电脑的时间较多。
因为学业需要,需求一个服务器,发现现在网络上有很多服务器供应商。在货比三家之后,经过同学推荐和机缘巧合,看到阿里云有一个高校学生在家实践的活动,就想着尝试一下。
使用后发现,不仅价格合适,阿里上有许多的教学任务,可以帮助我快速上手服务器的操作。

第二部分
目前我使用这个服务器做的事情有这么几件。
一 部署TeamSpeak服务
这是和朋友网上实时语音使用的。一开始经历了一些困难,比如端口相关的安全组操作不熟悉。使用过一次之后,因为整个云平台的操作界面很流畅,所以用过一次之后,后面再操作就没什么问题了。
二 部署了一个德州扑克equity计算工具的前后端。
这个东西本来是想用阿里云的Function+OSS实现的。不过既然有这么方便的一个服务器给我使用,那么也不必去使用无服务的架构了。后期服务器到期了,可能会考虑迁移成无服务架构。目前使用这个架构的原因,主要是需要用java调用本地的cpp程序,Function不支持cpp。
我一开始是使用putty远程ssh主机的。后来发现可以使用阿里云的网页直接连接终端,这个比起putty更方便。一般轻量任务,使用网页远程即可。
三 做为另一个项目的数据库端
这是正好有一个短视频项目,需要一个数据库,把一些用户相关数据放在这个数据库上。另外还推荐一下阿里的OSS存储,用来存放App相关的文件非常的好用。

第三部分
展望一下未来的场景吧。
未来的设想就是,继续完善一下这个小工具的前端。目前只有做了一个首页,后续会加入页面跳转。
然后再部署一个个人博客,记录一下自己的开发经验。后续也会继续把使用经验分享到社区
有时间的话还想借着另一个节省计划的活动,再申请两台服务器,尝试一些分布式服务。

相关文章
|
弹性计算 安全 大数据
飞天加速计划实践
本文是一篇介绍在参加飞天加速计划·高校学生在家实践活动中,作者使用阿里云ECS云服务器的攻略、问题和解决方案的文章,并总结了本次活动对作者的收获和未来计划。
|
弹性计算 小程序 PHP
|
弹性计算 应用服务中间件 Linux
飞天加速计划-实践心得
通过飞天加速计划,实践与了解到了服务器与本地虚拟机的不同,以及如何去使用阿里云ECS,更多的是了解到了阿里云这个平台里的免费实操案例。
飞天加速计划-实践心得
|
小程序 Windows
飞天加速计划,在家实践
一、自我情况介绍 二、使用过程 三、收获
|
16天前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
阿里云与企业共筑容器供应链安全
171339 13
|
19天前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
随着云计算和DevOps的兴起,容器技术和自动化在软件开发中扮演着愈发重要的角色,但也带来了新的安全挑战。阿里云针对这些挑战,组织了一场关于云上安全的深度访谈,邀请了内部专家穆寰、匡大虎和黄竹刚,深入探讨了容器安全与软件供应链安全的关系,分析了当前的安全隐患及应对策略,并介绍了阿里云提供的安全解决方案,包括容器镜像服务ACR、容器服务ACK、网格服务ASM等,旨在帮助企业构建涵盖整个软件开发生命周期的安全防护体系。通过加强基础设施安全性、技术创新以及倡导协同安全理念,阿里云致力于与客户共同建设更加安全可靠的软件供应链环境。
150296 32
|
27天前
|
弹性计算 人工智能 安全
对话 | ECS如何构筑企业上云的第一道安全防线
随着中小企业加速上云,数据泄露、网络攻击等安全威胁日益严重。阿里云推出深度访谈栏目,汇聚产品技术专家,探讨云上安全问题及应对策略。首期节目聚焦ECS安全性,提出三道防线:数据安全、网络安全和身份认证与权限管理,确保用户在云端的数据主权和业务稳定。此外,阿里云还推出了“ECS 99套餐”,以高性价比提供全面的安全保障,帮助中小企业安全上云。
201962 14
对话 | ECS如何构筑企业上云的第一道安全防线
|
4天前
|
机器学习/深度学习 自然语言处理 PyTorch
深入剖析Transformer架构中的多头注意力机制
多头注意力机制(Multi-Head Attention)是Transformer模型中的核心组件,通过并行运行多个独立的注意力机制,捕捉输入序列中不同子空间的语义关联。每个“头”独立处理Query、Key和Value矩阵,经过缩放点积注意力运算后,所有头的输出被拼接并通过线性层融合,最终生成更全面的表示。多头注意力不仅增强了模型对复杂依赖关系的理解,还在自然语言处理任务如机器翻译和阅读理解中表现出色。通过多头自注意力机制,模型在同一序列内部进行多角度的注意力计算,进一步提升了表达能力和泛化性能。
|
9天前
|
存储 人工智能 安全
对话|无影如何助力企业构建办公安全防护体系
阿里云无影助力企业构建办公安全防护体系
1256 10
|
11天前
|
机器学习/深度学习 自然语言处理 搜索推荐
自注意力机制全解析:从原理到计算细节,一文尽览!
自注意力机制(Self-Attention)最早可追溯至20世纪70年代的神经网络研究,但直到2017年Google Brain团队提出Transformer架构后才广泛应用于深度学习。它通过计算序列内部元素间的相关性,捕捉复杂依赖关系,并支持并行化训练,显著提升了处理长文本和序列数据的能力。相比传统的RNN、LSTM和GRU,自注意力机制在自然语言处理(NLP)、计算机视觉、语音识别及推荐系统等领域展现出卓越性能。其核心步骤包括生成查询(Q)、键(K)和值(V)向量,计算缩放点积注意力得分,应用Softmax归一化,以及加权求和生成输出。自注意力机制提高了模型的表达能力,带来了更精准的服务。