我的2017

简介: 昨天是2017年的最后一天,今天是2018年的第一天。谨以此文总结2017,展望2018。012017自己算是正式开始了博客之旅。自己的第一篇简书文章就是2017年的。

昨天是2017年的最后一天,今天是2018年的第一天。

谨以此文总结2017,展望2018。

01

2017自己算是正式开始了博客之旅。

自己的第一篇简书文章就是2017年的。

而自己的github博客也是在2017搭建的。

自己争取每个月出一篇技术文章。

目前已经坚持了几个月了。

后面博客除了技术类之外,可能还会出其他类型的文章。

02

大哥结婚了。

03

参加了一个别墅轰趴,认识了一群小伙伴。

其中最重要的是认识了一个妹子。

虽然目前见面次数较少,但是很开心认识了她。

也很开心自己没有错过这次的别墅之旅。

04

妹子邀请一起去锦绣中华过万圣节。

所以今年的万圣节很充实的度过了。

05

RP爆发,吃海鲜时抽奖抽到了特等奖4.5-5.5斤阿拉斯加蟹一只。

06

作为一名android开发者,之前一直使用android手机,但是自己觉得使用起来不够流畅。

因此想使用下苹果手机,体验下两者的不同。

刚好今年苹果发布了iphone X。

因此入手了iphone X。

07

朋友结婚,参加朋友婚礼。

08

妹子邀请一起去欢乐海岸跨年。

因此昨天就去欢乐海岸跨年了。

不愧是跨年,欢乐海岸人山人海,吃个饭都要排队等很久。

虽然没有官方跨年活动,但是我们自己进行了倒数。

倒数结束之后,又逛了一会儿,差不多1点多的时候我就撤了。

然而,

叫不到车
叫不到车
叫不到车

最后无奈之下,趁着2018年第一天疯狂一把,直接骑摩拜回家。

骑了13.7km。用了1小时26分钟左右。

相关文章
|
算法 C语言 C++
算法竞赛入门【码蹄集新手村600题】(MT1251-1300)
算法竞赛入门【码蹄集新手村600题】(MT1251、MT1252、MT1253、MT1254、MT1255......MT1300)
557 1
算法竞赛入门【码蹄集新手村600题】(MT1251-1300)
|
编译器 程序员 C++
c++面向对象程序设计基础教程————多态性和虚函数(一)
c++面向对象程序设计基础教程————多态性和虚函数(一)
142 0
c++面向对象程序设计基础教程————多态性和虚函数(一)
【大脑被控】研究人员成功操控特定神经元群,可编辑人类感觉和记忆
近日,加州伯克利研究人员在老鼠头上开一个「窗口」,将全息图直接投射到老鼠大脑中,成功地激活和抑制了老鼠大脑中特定的神经元群。这种方法可以让研究人员在模拟大脑对外界刺激作出的自然反应时,以每秒数百次的速度操控特定神经元群。
1185 0
|
JavaScript Python
Selenium2+python自动化46-js解决click失效问题
前言 有时候元素明明已经找到了,运行也没报错,点击后页面没任何反应。这种问题遇到了,是比较头疼的,因为没任何报错,只是click事件失效了。 本篇用2种方法解决这种诡异的点击事件失效问题 一、遇到的问题 1.在练习百度的搜索设置按钮时,点保存设置按钮,alert弹出没弹出(代码没报错,只是获取alert失败),相信不只是我一个人遇到过。
1169 0
|
15天前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
阿里云与企业共筑容器供应链安全
171336 13
|
18天前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
随着云计算和DevOps的兴起,容器技术和自动化在软件开发中扮演着愈发重要的角色,但也带来了新的安全挑战。阿里云针对这些挑战,组织了一场关于云上安全的深度访谈,邀请了内部专家穆寰、匡大虎和黄竹刚,深入探讨了容器安全与软件供应链安全的关系,分析了当前的安全隐患及应对策略,并介绍了阿里云提供的安全解决方案,包括容器镜像服务ACR、容器服务ACK、网格服务ASM等,旨在帮助企业构建涵盖整个软件开发生命周期的安全防护体系。通过加强基础设施安全性、技术创新以及倡导协同安全理念,阿里云致力于与客户共同建设更加安全可靠的软件供应链环境。
150296 32
|
26天前
|
弹性计算 人工智能 安全
对话 | ECS如何构筑企业上云的第一道安全防线
随着中小企业加速上云,数据泄露、网络攻击等安全威胁日益严重。阿里云推出深度访谈栏目,汇聚产品技术专家,探讨云上安全问题及应对策略。首期节目聚焦ECS安全性,提出三道防线:数据安全、网络安全和身份认证与权限管理,确保用户在云端的数据主权和业务稳定。此外,阿里云还推出了“ECS 99套餐”,以高性价比提供全面的安全保障,帮助中小企业安全上云。
201962 14
对话 | ECS如何构筑企业上云的第一道安全防线
|
4天前
|
机器学习/深度学习 自然语言处理 PyTorch
深入剖析Transformer架构中的多头注意力机制
多头注意力机制(Multi-Head Attention)是Transformer模型中的核心组件,通过并行运行多个独立的注意力机制,捕捉输入序列中不同子空间的语义关联。每个“头”独立处理Query、Key和Value矩阵,经过缩放点积注意力运算后,所有头的输出被拼接并通过线性层融合,最终生成更全面的表示。多头注意力不仅增强了模型对复杂依赖关系的理解,还在自然语言处理任务如机器翻译和阅读理解中表现出色。通过多头自注意力机制,模型在同一序列内部进行多角度的注意力计算,进一步提升了表达能力和泛化性能。
|
8天前
|
存储 人工智能 安全
对话|无影如何助力企业构建办公安全防护体系
阿里云无影助力企业构建办公安全防护体系
1253 10
|
10天前
|
机器学习/深度学习 自然语言处理 搜索推荐
自注意力机制全解析:从原理到计算细节,一文尽览!
自注意力机制(Self-Attention)最早可追溯至20世纪70年代的神经网络研究,但直到2017年Google Brain团队提出Transformer架构后才广泛应用于深度学习。它通过计算序列内部元素间的相关性,捕捉复杂依赖关系,并支持并行化训练,显著提升了处理长文本和序列数据的能力。相比传统的RNN、LSTM和GRU,自注意力机制在自然语言处理(NLP)、计算机视觉、语音识别及推荐系统等领域展现出卓越性能。其核心步骤包括生成查询(Q)、键(K)和值(V)向量,计算缩放点积注意力得分,应用Softmax归一化,以及加权求和生成输出。自注意力机制提高了模型的表达能力,带来了更精准的服务。