达摩院视觉 AI 介绍(二)|学习笔记

简介: 快速学习达摩院视觉 AI 介绍

开发者学堂课程【达摩院视觉 AI 精品课达摩院视觉 AI 介绍笔记与课程紧密联系,让用户快速学习知识。

课程地https://developer.aliyun.com/learning/course/912/detail/14418


达摩院视觉 AI 介绍(二)

三、演示:服务开通、调用

创建成功后显示如下:

点击操作中复制选项

复制信息如下:

用户名称登录 test2020lx2@43671.onaliyun.com

AccessKey ID LTA4G7We7Nir3zzdcp7G5x2

AccessKeySecretfLRIGqe8hKnsE77vleSraMYQdJTC4

创建用户后,给用户设置权限:

点击人员管理,进入用户项,点击添加权限选项

image.png

进入添加权限页面,进行权限管理:

点击确认后

上传图片地址到缺口:

搜索栏搜索 OSS,进入 OSS 控制台,点击 Bucket 列表,进入界面:

image.png

点击创建 Bucket,进入创建页面,输入 Bucket 名称,并选择地域:

将读写权限改为公共课,点击确定:

image.png创建成功后呈如下界面:

image.png

创建文件:

点击文件管理,上传文件,进入上传文件界面,选择一个文件进行上传:

上传成功后,退出界面,点击详情,复制文件URL

使用 IDEA 创建一个新的 maven 项目,添加依赖包:

<dependency>

<groupId>com . aliyun</ groupid>

<artifactId>aliyun-java-sdk-core</artifactId><version>4.5.14</ version>

</ dependency>

<!-- https : / /mvnrepository.com/artifact/com.aliyun/aliyun-java-sdk-facebody -->

<dependency>

<groupid>com.aliyun</ groupId>

<artifactId>aliyun-java-sdk-facebody</ artifactId>

<version>1.2.2</version>

</dependency>

代码:

<?xml version="1,0"encoding="UTF-8"?>

<project xmlns="http://maven.apache. org/PON/4.0.0

xmlns:xsi="http:/ /www . w3.org/2001/XMLSchena-instance"xsi:schemaLocation="http: //maven.apache .ong/PON/4.0.0 http://maven,apache .org/xsd/maven-

-4.0.0.xsd“>

<modelVersion>4.0.0</modelversion>

<groupId>org.example</groupId>

<artifactid>test002</artifactId>

<version>1.0-SNAPSHOT</version>

<dependencies>

<dependency>

<groupId>com.aliyun</groupId>

<artifactId>aliyun-java-sdk-core</artifactId>

<version>4.5.14</version>

</ dependency>

<!--https://mvncenository,com/arntifact/com.aliyun/alivun-java-sdk-facebody -->

<dependency>

<groupId>com.aliyun</groupId>

<artifactId>aliyun-java-sdk-facebody</artifactId>

<version>1.2.2</version>

</dependency>

</dependencies>

</project>

将对应的包下载到本地并添加一个新的java类,输入代码如下:

import com.aliyuncs.DefaultAcsClient;

import com.aliyuncs.IAcSClient;

import com.aliyuncs.exceptions.clientException;

import com.aliyuncs.exceptions.ServerException;

import com.aliyuncs.profile.DefaultProfile;

import com.google.gson.Gson;

import java.util,*;

import com.aliyuncs.facebody.model.v20191230,*;

public class DetectFace {

public static void main(String[] args) {

DefaultProfile profile = DefaultProfile.getProfile( reglonld:“cn-shanghai",accesskeyid:"<accessKeyId> "

IAcsClient client = ne DefaultAcsclient(profile);DetectFaceRequest request = new DetectFaceRequest(O;request.setRegionId( " cn-shanghai");

request.setImageURL ("httos://viapi-test.oss-cn-shanghai.aliyuncs .com/demo-center/facebody/DetectFace.jpg");

try {

DetectFaceResponse response = client.getAcsResponse(request);

System.out.println(new Gson().toJson(response));

}

catch (serverException e){

e.printstackTrace(;

catch (clientException e)i

System.out.println( "ErrCode: " +e.getErrCode());

System.out.println( "ErrHsg;"+e.getErrMsg();

System.out.println( "RequestId: " + e.getRequestId());

}

}

}

相关文章
|
10天前
|
数据采集 人工智能 算法
Seer:上海 AI Lab 与北大联合开源端到端操作模型,结合视觉预测与动作执行信息,使机器人任务提升成功率43%
Seer是由上海AI实验室与北大等机构联合推出的端到端操作模型,结合视觉预测与动作执行,显著提升机器人任务成功率。
49 20
Seer:上海 AI Lab 与北大联合开源端到端操作模型,结合视觉预测与动作执行信息,使机器人任务提升成功率43%
|
18天前
|
人工智能 UED
VersaGen:生成式 AI 代理,基于 Stable Diffusion 生成图像,专注于控制一至多个视觉主体等生成细节
VersaGen 是一款生成式 AI 代理,专注于文本到图像合成中的视觉控制能力,支持多种视觉控制类型,并通过优化策略提升图像生成质量和用户体验。
38 8
VersaGen:生成式 AI 代理,基于 Stable Diffusion 生成图像,专注于控制一至多个视觉主体等生成细节
|
30天前
|
存储 人工智能 安全
从AI换脸到篡改图像,合合信息如何提升视觉内容安全?
从AI换脸到篡改图像,合合信息如何提升视觉内容安全?
从AI换脸到篡改图像,合合信息如何提升视觉内容安全?
|
24天前
|
人工智能 API 数据库
Browser Use:开源 AI 浏览器助手,自动完成网页交互任务,支持多标签页管理、视觉识别和内容提取等功能
Browser Use 是一款专为大语言模型设计的智能浏览器工具,支持多标签页管理、视觉识别、内容提取等功能,并能记录和重复执行特定动作,适用于多种应用场景。
301 0
Browser Use:开源 AI 浏览器助手,自动完成网页交互任务,支持多标签页管理、视觉识别和内容提取等功能
|
27天前
|
机器学习/深度学习 人工智能 安全
合合信息亮相CSIG AI可信论坛,全面拆解视觉内容安全的“终极防线”!
合合信息在CSIG AI可信论坛上,全面拆解了视觉内容安全的“终极防线”。面对AI伪造泛滥的问题,如Deepfake换脸、PS篡改等,合合信息展示了其前沿技术,包括通用PS检测系统和AIGC与换脸检测系统,有效应对视觉内容安全挑战。公司在国际赛事中屡获殊荣,并联合多方发布《文本图像篡改检测系统技术要求》,推动行业标准化发展。通过技术创新,合合信息为金融、政企等领域提供可靠保障,守护社会信任,引领视觉内容安全新方向。
38 0
|
3月前
|
机器学习/深度学习 人工智能 算法
使用 NVIDIA TAO Toolkit 5.0 体验最新的视觉 AI 模型开发工作流程
NVIDIA TAO Toolkit 5.0 提供低代码框架,支持从新手到专家级别的用户快速开发视觉AI模型。新版本引入了开源架构、基于Transformer的预训练模型、AI辅助数据标注等功能,显著提升了模型开发效率和精度。TAO Toolkit 5.0 还支持多平台部署,包括GPU、CPU、MCU等,简化了模型训练和优化流程,适用于广泛的AI应用场景。
82 0
使用 NVIDIA TAO Toolkit 5.0 体验最新的视觉 AI 模型开发工作流程
|
4月前
|
人工智能 自然语言处理 Linux
Llama 3.2:开源可定制视觉模型,引领边缘AI革命
Llama 3.2 系列 11B 和 90B 视觉LLM,支持图像理解,例如文档级理解(包括图表和图形)、图像字幕以及视觉基础任务(例如基于自然语言描述在图像中精确定位对象)。
|
5月前
|
机器学习/深度学习 人工智能 监控
探索视觉AI:超越计算机视觉的边界
【8月更文挑战第20天】
81 2
|
5月前
|
机器学习/深度学习 人工智能 PyTorch
"揭秘AI绘画魔法:一键生成梦幻图像,稳定扩散模型带你开启视觉奇迹之旅!"
【8月更文挑战第21天】稳定扩散(Stable Diffusion)是基于深度学习的模型,能根据文本生成高质量图像,在AI领域备受瞩目,革新了创意产业。本文介绍稳定扩散模型原理及使用步骤:环境搭建需Python与PyTorch;获取并加载预训练模型;定义文本描述后编码成向量输入模型生成图像。此外,还可调整参数定制图像风格,或使用特定数据集进行微调。掌握这项技术将极大提升创意表现力。
71 0
|
5月前
|
机器学习/深度学习 人工智能 算法
【机器学习】基于YOLOv10实现你的第一个视觉AI大模型
【机器学习】基于YOLOv10实现你的第一个视觉AI大模型
257 0

热门文章

最新文章