游客64jtluotl7dqy_个人页

个人头像照片 游客64jtluotl7dqy
0
1
0

个人介绍

暂无个人介绍

擅长的技术

获得更多能力
通用技术能力:

暂时未有相关通用技术能力~

云产品技术能力:

暂时未有相关云产品技术能力~

阿里云技能认证

详细说明
暂无更多信息
正在加载, 请稍后...
暂无更多信息
  • 提交了问题 2018-07-24

    打开网站速度超慢

  • 提交了问题 2018-07-09

    需变更安全设置中手机绑定项,员工私人支付宝手机账号的手机号码也同时变更了

  • 回答了问题 2018-06-22

    redis无法连接,总是 connect timed out

    详细解答可以参考官方帮助文档 详情请参见公网连接。
    踩0 评论0
  • 回答了问题 2018-06-14

    带宽不够用

    详细解答可以参考官方帮助文档温馨提醒: 使用独享带宽的主机可以增加带宽,如果您是共享型主机,建议您先主机升级到独享后在增加带宽。 主机离到期日不足一个月,请先进行主机续费,再增加主机带宽 。增加带宽流程:1. 登录 云虚拟主机管理页面 。2. 选择对应主机操作 > 更多操作 > 增加带宽 。3. 填写 增加带宽 大小 和 购买时长(增加带宽价格请以实际提交订单为准)。4. 单击 下一步 。5. 页面提示增加带宽大小及价格,请确定增加带宽详情 。6. 单击 提交 生成订单。7. 选择支付方式。8. 单击  网上银行在线支付或线下支付  查看付款方式。9. 支付结算成功完成购买。10. 可登录 主机管理控制台 > 主机信息 > 配置信息,中查看增加后主机带宽大小 其他付款方式请参考《如何进行线下汇款》索取发票请参考《申请发票流程》 如问题还未解决,请联系售后技术支持。
    踩0 评论0
  • 回答了问题 2018-06-12

    我配置apache的日志access_log 设置了,但是没有出现下一步,那个地方错了

    详细解答可以参考官方帮助文档 投递日志到 MaxCompute 是日志服务的一个功能,能够帮助您最大化数据价值。您可以自己决定对某个日志库是否启用该功能。一旦启用该功能,日志服务后台会定时把写入到该日志库内的日志投递到 MaxCompute 对应的表格中。 使用限制 数加控制台创建、修改投递配置必须由主账号完成,不支持子账号操作。 投递MaxCompute是批量任务,请谨慎设置分区列:保证一个同步任务内处理的数据分区数小于512个;用作分区列的字段值不能包括/等MaxCompute保留字段 。配置细节请参考下文投递配置说明。 不支持海外Region的MaxCompute投递,海外Region的MaxCompute请使用dataworks进行数据同步。国内Region投递支持如下: 日志服务Region MaxCompute Region 华北1 华东2 华北2 华北2、华东2 华北3 华东2 华北5 华东2 华东1 华东2 华东2 华东2 华南1 华南1、华东2 香港 华东2 功能优势 日志服务收集的日志除了可以被实时查询外,还可以把日志数据投递到大数据计算服务MaxCompute(原ODPS),进一步进行个性化BI分析及数据挖掘。通过日志服务投递日志数据到MaxCompute具有如下优势: 使用便捷 您只需要完成2步配置即可以把日志服务Logstore的日志数据迁移到MaxCompute中。 避免重复收集工作 由于日志服务的日志收集过程已经完成不同机器上的日志集中化,无需重复在不同机器上收集一遍日志数据后再导入到MaxCompute。 充分复用日志服务内的日志分类管理工作 用户可让日志服务中不同类型的日志(存在不同Logstore中)、不同Project的日志自动投递到不同的MaxCompute表格,方便管理及分析MaxCompute内的日志数据。 说明 一般情况下日志数据在写入Logstore后的1个小时导入到MaxCompute,您可以在控制台投递任务管理查看导入状态。导入成功后即可在MaxCompute内查看到相关日志数据。判断数据是否已完全投递请参考文档。 结合日志服务的实时消费,投递日志数据到MaxCompute的数据通道以及日志索引功能,可以让用户按照不同的场景和需求、以不同的方式复用数据,充分发挥日志数据的价值。 配置流程 举例日志服务的一条日志如下: 16年01月27日20时50分13秒 10.10.*.* ip:10.10.*.* status:200 thread:414579208 time:27/Jan/2016:20:50:13 +0800 url:POST /PutData?Category=YunOsAccountOpLog&AccessKeyId=****************&Date=Fri%2C%2028%20Jun%202013%2006%3A53%3A30%20GMT&Topic=raw&Signature=******************************** HTTP/1.1 user-agent:aliyun-sdk-java 日志左侧的ip、status、thread、time、url、user-agent等是日志服务数据的字段名称,需要在下方配置中应用到。 步骤1 初始化数加平台 在日志服务的控制台Logstore列表单击日志投递列的MaxCompute。 自动跳转到初始化数加平台的页面。MaxCompute默认为按量付费模式,具体参见MaxCompute文档说明。 查看服务协议和条款后单击确定,初始化数加平台。 初始化开通需10~20秒左右,请耐心等待。如果已经开通数加及大数据计算服务MaxCompute(原ODPS),将直接跳过该步骤。 步骤2 数据模型映射在日志服务和大数据计算服务MaxCompute(原ODPS)之间同步数据,涉及两个服务的数据模型映射问题。您可以参考日志服务日志数据结构了解数据结构。 将样例日志导入MaxCompute,分别定义MaxCompute数据列、分区列与日志服务字段的映射关系: MaxCompute 列类型 MaxCompute 列名(可自定义) MaxCompute 列类型(可自定义) 日志服务字段名(投递配置里填写) 日志服务字段类型 日志服务字段语义 数据列 log_source string __source__ 系统保留字段 日志来源的机器 IP。 log_time bigint __time__ 系统保留字段 日志的 Unix 时间戳(是从1970 年 1 月 1 日开始所经过的秒数),由用户日志的 time 字段计算得到。 log_topic string __topic__ 系统保留字段 日志主题。 time string time 日志内容字段 解析自日志。 ip string ip 日志内容字段 解析自日志。 thread string thread 日志内容字段 解析自日志。 log_extract_others string __extract_others__ 系统保留字段 未在配置中进行映射的其他日志内字段会通过 key-value 序列化到json,该 json 是一层结构,不支持字段内部 json 嵌套。 分区列 log_partition_time string __partition_time__ 系统保留字段 由日志的 time 字段对齐计算而得,分区粒度可配置,在配置项部分详述。 status string status 日志内容字段 解析自日志,该字段取值应该是可以枚举的,保证分区数目不会超出上限。 MaxCompute 表至少包含一个数据列、一个分区列。 系统保留字段中建议使用 __partition_time__,__source__,__topic__。 MaxCompute 单表有分区数目 6 万的限制,分区数超出后无法再写入数据,所以日志服务导入 MaxCompute表至多支持3个分区列。请谨慎选择自定义字段作为分区列,保证其值是可枚举的。 系统保留字段 __extract_others__ 历史上曾用名 _extract_others_,填写后者也是兼容的。 MaxCompute 分区列的值不支持”/“等特殊字符,这些是 MaxCompute 的保留字段。 MaxCompute 分区列取值不支持空,所以映射到分区列的字段必须要在日志里存在,空分区列的日志会在投递中被丢弃。 步骤3 配置投递规则 开启投递。 初始化数加平台之后,根据页面提示进入LogHub —— 数据投递页面,选择需要投递的Logstore,并单击开启投递。 您也可以在MaxCompute(原ODPS)投递管理页面选择需要投递的Logstore,并单击开启投递以进入LogHub —— 数据投递页面。 图 1. 开启投递 配置投递规则。 在 LogHub —— 数据投递页面配置 字段关联等相关内容。 图 2. 配置投递规则 配置项含义: 参数 语义 投递名称 自定义一个投递的名称,方便后续管理。 MaxCompute Project MaxCompute项目名称,该项默认为新创建的Project,如果已经是MaxCompute老客户,可以下拉选择已创建其他Project。 MaxCompute Table MaxCompute表名称,请输入自定义的新建的MaxCompute表名称或者选择已有的MaxCompute表。 MaxCompute 普通列 按序,左边填写与MaxCompute表数据列相映射的日志服务字段名称,右边填写或选择MaxCompute表的普通字段名称及字段类型。 MaxCompute 分区列 按序,左边填写与MaxCompute表分区列相映射的日志服务字段名称,右边填写或选择MaxCompute表的普通字段名称及字段类型。 分区时间格式 __partition_time__输出的日期格式,参考 Java SimpleDateFormat。 导入MaxCompute间隔 MaxCompute数据投递间隔,默认1800,单位:秒。 该步会默认为客户创建好新的MaxCompute Project和Table,其中如果已经是MaxCompute老客户,可以下拉选择其他已创建Project。 日志服务投递MaxCompute功能按照字段与列的顺序进行映射,修改MaxCompute表列名不影响数据导入,如更改MaxCompute表schema,请重新配置字段与列映射关系。 日志服务数据的一个字段最多允许映射到一个MaxCompute表的列(数据列或分区列),不支持字段冗余。 参考信息 __partition_time__ 格式 将日志时间作为分区字段,通过日期来筛选数据是MaxCompute常见的过滤数据方法。 __partition_time__ 是根据日志time字段值计算得到(不是日志写入服务端时间,也不是日志投递时间),结合分区时间格式,向下取整(为避免触发MaxCompute单表分区数目的限制,日期分区列的值会按照导入MaxCompute间隔对齐)计算出日期作为分区列。 举例来说,日志提取的time字段是“27/Jan/2016:20:50:13 +0800”,日志服务据此计算出保留字段__time__为1453899013(Unix时间戳),不同配置下的时间分区列取值如下: 导入MaxCompute间隔 分区时间格式 __partition_time__ 1800 yyyy_MM_dd_HH_mm_00 2016_01_27_20_30_00 1800 yyyy-MM-dd HH:mm 2016-01-27 20:30 1800 yyyyMMdd 20160127 3600 yyyyMMddHHmm 201601272000 3600 yyyy_MM_dd_HH 2016_01_27_20 请勿使用精确到秒的日期格式:1. 很容易导致单表的分区数目超过限制(6万);2. 单次投递任务的数据分区数目必须在512以内。 以上分区时间格式是测试通过的样例,您也可以参考Java SimpleDateFormat自己定义日期格式,但是该格式不得包含斜线字符”/“(这是MaxCompute的保留字段)。 __partition_time__ 使用方法 使用MaxCompute的字符串比较筛选数据,可以避免全表扫描。比如查询2016年1月26日一天内日志数据: select * from {ODPS_TABLE_NAME} where log_partition_time >= '2015_01_26' and log_partition_time __extract_others__使用方法 log_extract_others为一个json字符串,如果想获取该字段的user-agent内容,可以进行如下查询: select get_json_object(sls_extract_others, '$.user-agent') from {ODPS_TABLE_NAME} limit 10; 说明 get_json_object是MaxCompute提供的标准UDF。请联系MaxCompute团队开通使用该标准UDF的权限。 示例供参考,请以MaxCompute产品建议为最终标准。 其他操作 编辑投递配置 在Logstore列表投递项,单击“修改”即可针对之前的配置信息进行编辑。其中如果想新增列,可以在大数据计算服务MaxCompute(原ODPS)修改投递的数据表列信息,则点击“修改”后会加载最新的数据表信息。 投递任务管理 在启动投递功能后,日志服务后台会定期启动离线投递任务。用户可以在控制台上看到这些投递任务的状态和错误信息。具体请参考管理日志投递任务。 如果投递任务出现错误,控制台上会显示相应的错误信息: 错误信息 建议方案 MaxCompute项目空间不存在 在MaxCompute控制台中确认配置的MaxCompute项目是否存在,如果不存在则需要重新创建或配置。 MaxCompute表不存在 在MaxCompute控制台中确认配置的MaxCompute表是否存在,如果不存在则需要重新创建或配置。 MaxCompute项目空间或表没有向日志服务授权 在MaxCompute控制台中确认授权给日志服务账号的权限是否还存在,如果不存在则需要重新添加上相应权限。 MaxCompute错误 显示投递任务收到的MaxCompute错误,请参考MaxCompute相关文档或联系MaxCompute团队解决。日志服务会自动重试最近两天时间的失败任务。 日志服务导入字段配置无法匹配MaxCompute表的列 重新配置MaxCompute表格的列与日志服务数据字段的映射配置。 当投递任务发生错误时,请查看错误信息,问题解决后可以通过云控制台中“日志投递任务管理”或SDK来重试失败任务。 MaxCompute中消费日志 MaxCompute用户表中示例数据如下: | log_source | log_time | log_topic | time | ip | thread | log_extract_others | log_partition_time | status | +------------+------------+-----------+-----------+-----------+-----------+------------------+--------------------+-----------+ | 10.10.*.* | 1453899013 | | 27/Jan/2016:20:50:13 +0800 | 10.10.*.* | 414579208 | {'url':'POST /PutData?Category=YunOsAccountOpLog&AccessKeyId=****************&Date=Fri%2C%2028%20Jun%202013%2006%3A53%3A30%20GMT&Topic=raw&Signature=******************************** HTTP/1.1','user-agent':'aliyun-sdk-java'} | 2016_01_27_20_50 | 200 | +------------+------------+-----------+-----------+-----------+-----------+------------------+--------------------+-----------+ 同时,我们推荐您直接使用已经与MaxCompute绑定的大数据开发Data IDE来进行可视化的BI分析及数据挖掘,这将提高数据加工的效率。 授予MaxCompute数据投递权限 如果在数加平台执行表删除重建动作,会导致默认授权失效。请手动重新为日志服务投递数据授权。 在MaxCompute项目空间下添加用户: ADD USER aliyun$shennong_open@aliyun.com; shennong_open@aliyun.com 是日志服务系统账号(请不要用自己的账号),授权目的是为了能将数据写入到MaxCompute MaxCompute项目空间Read/List权限授予: GRANT Read, List ON PROJECT {ODPS_PROJECT_NAME} TO USER aliyun$shennong_open@aliyun.com; MaxCompute项目空间的表Describe/Alter/Update权限授予: GRANT Describe, Alter, Update ON TABLE {ODPS_TABLE_NAME} TO USER aliyun$shennong_open@aliyun.com; 确认MaxCompute授权是否成功: SHOW GRANTS FOR aliyun$shennong_open@aliyun.com; A projects/{ODPS_PROJECT_NAME}: List | Read A projects/{ODPS_PROJECT_NAME}/tables/{ODPS_TABLE_NAME}: Describe | Alter | Update
    踩0 评论0
  • 提交了问题 2018-05-21

    资金支付可否采用单位现金支票

  • 回答了问题 2018-03-24

    HTTP Error 500.22

    详细解答可以参考官方帮助文档1.报错现象:HTTP Error 500.22 - Internal Server ErrorAn ASP.NET setting has been detected that does not apply in Integrated managed pipeline mode.问题描述:IIS模式不识别,模式错误。解决方案:请您进入主机管理控制台(cp.hichina.com)—>高级环境设置—>.net版本设置。  2.报错现象:php 脚本GET传递变量打印后是乱码.问题描述:NT下的php需要设定转码。解决案例: 改成中国万网')?>'>添加  3.报错现象:HTTP Error 404.0 - Not FoundThe resource you are looking for has been removed, had its name changed, or is temporarily unavailable问题描述:404报错。解决方案:处理方法检查404设置,需要进入主机管理控制台(cp.hichina.com)—>基础环境设置—>404页面设置中检查。  4.报错现象:Microsoft OLE DB Provider for ODBC Drivers 错误 '80004005' [Microsoft][ODBC SQL Server Driver][Named Pipes]Specified SQL server not found. /conn.asp,行12问题描述:无法连接数据库。解决方案:1、检查其conn.asp中的数据库信息是否书写正确;2、检查数据库是否健康运行。  5.报错现象:NOT FoundThe requested URL/was not found on this server.Apache/1.3.26 Server at test.com port 80问题描述:访问的页面不存在。解决方案:检查页面的完整性或者重新上传。  6.报错现象:Directory Listing DeniedThis Virtual Directory does not allow contents to be listed.问题描述:域名没有绑定。解决方案:检查iis域名绑定和默认首页文件。请您进入主机管理控制台(cp.hichina.com)—>基础环境设置—>域名绑定和默认首页文件设置中调整。  7.报错现象:Microsoft OLE DB Provider for ODBC Drivers 错误 '80004005'  [Microsoft][ODBC Microsoft Access Driver]常见错误 不能打开注册表关键字 'Temporary (volatile) Jet DSN for process 0x4ec Thread 0x81c DBC 0x22f3544 Jet'。问题描述:ACCESS数据库读取报错解决方案:1).放弃ODBC方式读取,改用OLEDB来连接Access。连接字符串为:Provider=Microsoft.Jet.OLEDB.4.0;Data Source=数据库文件名。2).客户Access数据库文件可能损坏,解决方法将Access数据库文件FTP下载到本地,用本地Access打开,用修复功能修复数据库。  8.报错现象:Microsoft OLE DB Provider for SQL Server 错误 ‘80040e2f‘Cannot insert the value NULL into column ‘id‘, table ‘dsc*****_db.dsc*****.message‘; column does not allow nulls. INSERT fails.问题描述:在通过企业管理器导入数据库结构时,自动增量没有选中或丢失造成的解决方案:把原的数据库生成一个.sql语句,然后在服务器上的查询分析器上执行,以便可以在服务器上先创建库结构和存储过程,其次再让客户通过企业管理器进行导入即可。请参考万网提供的手册:SQL数据库用户使用手册SQL2005数据库的使用手册SQL2000数据库升级G享2005数据库操作手册
    踩0 评论0
  • 回答了问题 2018-03-13

    com邮箱被占用

    详细解答可以参考官方帮助文档温馨提示:修改邮箱域名后需重新解析,解析生效后方能正常使用。 ' class='reference-link'>企业邮箱标准版更换邮箱绑定域名方法1.登录企业邮箱管理页面。 2.单击 更换域名 ,如下图所示:3. 输入新域名,提交后即可对域名进行更换。 企业邮集团版更换邮箱绑定域名 登录到集团邮箱管理页面进行更换,集团邮箱管理页面登录地址:http://groupmail.hichina.com。 单击 域管理 > 更换域名。根据提示更换即可。 如果您的原域名还继续使用,只是再额外增加一个新域名作为邮箱后缀,可以考虑添加域别名。具体设置方法请参考:域别名设置方法。 如果问题还未能解决,请联系售后技术支持。
    踩0 评论0
  • 提交了问题 2018-03-11

    如何用sts方式获取到token值

  • 回答了问题 2018-02-24

    scale标签

    详细解答可以参考官方帮助文档 容器服务编排模板文件使用的标签兼容大部分 Docker Compose V1 和 V2 版本实现的标签,并在社区版本的基础上提供了很多扩展能力。 扩展能力的标签 容器服务扩展了编排模板的部署和生命周期管理能力,所有扩展能力都被描述在 labels 标签下面,作为子标签使用。 标签 说明 probe 设置服务的健康性检查。 rolling_updates 设置服务滚动更新。 parallelism 设置 rolling_updates 每次并行更新的容器数量。注意:此标签必须和 rolling_updates 配合使用,单独使用无效。 depends 设置服务的依赖关系。 scale 设置该服务的容器数量,横向扩展服务。 routing 设置该服务的访问域名。 routing.session_sticky 设置 routing 在做请求路由的时候,是否保持 session sticky,即会话保持。注意:此标签必须和 routing 配合使用,单独使用无效。 lb 通过自定义阿里云负载均衡 nat 映射的方式来暴露服务端口到公网或者内网。 日志 和阿里云日志服务集成,采集容器日志并且发送到阿里云日志服务。 global 设置该服务为全局服务。 功能增强的标签 容器服务提供服务部署约束(affinity:service) 标签用来设置该服务的部署约束条件。 额外支持的标签 标签 说明 external 设置该服务直接链接到外部地址。 dns_options 设置 DNS 选项,和docker run 命令中的--dns-opt参数语义一致。 oom_kill_disable 设置是否禁止 OOM Killer, 和docker run 命令中的--oom-kill-disable 参数语义一致。 变量替换 容器服务支持参数化的 Docker Compose 模板。模板中可以包含环境变量作为参数,当模板部署时会提示输入参数值,并在部署时对模板进行变量替换。 更多详细信息,参见变量替换。 容器重新调度 容器服务支持对 Docker 容器的重新调度:当一个节点失效时,容器可以被自动调度到其他可用节点自动运行。 更多详细信息,参见容器重新调度。 高可用性调度 为了使应用有更高的可用性,容器服务支持将同一个服务的容器调度在不同的可用区(availability zone)里。当某个可用区故障时,应用依然能够提供服务。 更多详细信息,参见高可用性调度。 不支持的 Docker Compose 标签 容器服务暂不支持 Docker Compose 的部分标签。有关容器服务暂不支持的标签,参见不支持的 Docker Compose 标签。
    踩0 评论0
  • 回答了问题 2018-02-13

    二级域名设置解析方法

    详细解答可以参考官方帮助文档  二级域名的解析设置无需申请或付费,直接进入万网云解析,设置解析记录时在主机名(RR)输入相应二级域名地址即可完成。二级域名设置解析方法:1、登录阿里云/万网【管理控制台】。2、点击主导航栏【产品与服务】--【云解析】,进入域名解析列表页。3、点击要解析的域名,进入解析记录页。4、进入解析记录页后,点击【添加解析】按钮,开始设置解析记录:您只需要在主机记录(RR 值)输入二级域名的对应字符即可实现对二级域名的解析设置。举例来说,假如您的域名是abc.com,当您在主机记录填写“mail”,便可以针对二级域名mail.abc.com设置解析。 温馨提示:1)将域名解析指向一个 IP 地址,您需要选择记录类型为A记录,记录值输入服务器 IP 地址;2)将域名解析指向另一个域名,您需要选择记录类型为 CNAME 记录,记录值输入域名(没有https://);3)将域名解析指向一个网站地址,你需要选择记录类型为 URL 转发,记录值输入网站地址。注:如果您使用的非万网的 DNS,如何修改成万网 DNS 请 点此查看。域名解析多久才能生效请 点此查看。 如问题还未解决,请联系售后技术支持。 
    踩0 评论0
  • 提交了问题 2018-02-03

    企业邮箱域名解析不成功

  • 提交了问题 2018-01-19

    需要重新挂载:mount /dev/vdb1 /mnt/

正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息