一、开通 MaxCompute 服务(0 元试用)
- 入口直达
登录阿里云账号(需完成个人实名认证),打开 MaxCompute 免费试用入口:MaxCompute 产品官网 - 入门与试用或直接访问:https://free.aliyun.com/ 资源领取
选择地域(推荐:北京、上海、深圳,支持白屏化查看模型);
勾选「MaxCompute 试用资源包」(包含 500CU*H 计算抵扣包 + 100GB 存储抵扣包,有效期 3 个月);
按提示创建「服务关联角色」(AliyunServiceRoleForMaxCompute,用于云产品间数据访问授权,默认勾选即可);
提交后等待 1-5 分钟,收到「MaxCompute 服务开通成功」的短信 / 控制台通知。
注意事项
仅个人认证的 MaxCompute 新用户可申领,试用资源超额后按实际用量计费,建议提前在「费用中心 - 消费控制」设置额度预警;
资源包非实时抵扣,当日用量次日 6 点前生成账单后抵扣。
二、前往 MaxCompute 控制台创建项目
- 进入控制台
开通成功后,打开「MaxCompute 控制台」:https://maxcompute.console.aliyun.com/ - 创建项目(核心步骤)
选择与试用资源一致的地域(如「华东 2(上海)」);
点击「创建项目」,填写关键信息:
配置项 填写要求
项目名称 小写字母 + 数字组合,如「mc_consumer_analysis」(全局唯一)
项目描述 可选,如「消费评论场景分析测试」
资源组 选择「公共资源组」(试用默认)
访问权限 保持默认「标准模式」,新手无需调整
点击「确定」,等待 3-5 分钟,项目状态变为「运行中」即创建成功。
三、明确业务场景 + 模型调用逻辑
- 业务场景需求
基于用户消费评论,完成 2 个 AI 分析目标:
场景分类:将评论映射到「居家 / 办公 / 出行 / 休闲 / 其他」5 类固定场景(输出仅含场景名);
推荐指数:根据评论情感正向程度,输出 1-10 的数字(1 = 极不推荐,10 = 极力推荐)。 - 模型调用规则
调用公共模型:bigdata_public_modelset.default.Qwen3-1.7B-GGUF(轻量化,适配试用资源);
核心 FLAG 配置(必须开启):SET odps.task.major.version=flighting; -- 启用新版执行引擎 SET odps.sql.using.public.model=true; -- 开启公共模型调用权限 SET odps.namespace.schema=false; -- 关闭命名空间校验
四、执行 SQL 代码(控制台 / DataWorks 均可)
- 代码执行入口
在 MaxCompute 控制台进入目标项目,点击左侧「SQL 分析」(新版控制台),或通过「DataWorks」(0 元开通后使用):
DataWorks 开通:参考文档流程,选择同地域、基础版、按量付费资源组,绑定 VPC / 交换机后即可使用。 - 完整可执行 SQL 代码
-- 步骤1:创建消费评论表(存储测试数据)
CREATE TABLE IF NOT EXISTS consumer_comment
(
comment_id STRING COMMENT '评论ID',
comment_text STRING COMMENT '消费评论内容',
comment_time STRING COMMENT '评论时间',
user_city STRING COMMENT '用户城市'
);
-- 步骤2:插入测试数据(模拟真实消费评论)
INSERT INTO consumer_comment VALUES
('C001', '这款家用投影仪画质超清晰,宅家看电影太爽了! /no_think', '2025-12-01 10:00:00', '上海'),
('C002', '公司采购的办公椅久坐不腰疼,性价比绝了! /no_think', '2025-12-01 11:00:00', '北京'),
('C003', '高铁上的充电插座太方便了,出行再也不慌! /no_think', '2025-12-01 12:00:00', '深圳'),
('C004', '周末去的咖啡馆环境超棒,适合放空一下午 /no_think', '2025-12-01 13:00:00', '广州'),
('C005', '快递员态度超差,包裹还送错了地方 /no_think', '2025-12-01 14:00:00', '杭州');
-- 步骤3:设置MaxCompute AI核心配置
SET odps.task.major.version=flighting;
SET odps.sql.using.public.model=true;
SET odps.namespace.schema=false;
-- 步骤4:核心AI分析逻辑(场景分类+推荐指数)
SELECT
comment_id,
comment_text,
-- AI分析1:消费场景分类(限定5个固定选项)
AI_GENERATE(
bigdata_public_modelset.default.Qwen3-1.7B-GGUF,
DEFAULT_VERSION,
CONCAT('请对以下评论对应的消费场景进行分类,输出结果仅限于以下五个选项之一:居家、办公、出行、休闲、其他。待分析的评论:', comment_text),
'{"max_tokens": 500, "temperature": 0.2}' -- 低随机性保证结果稳定
) AS consumption_scene,
-- AI分析2:推荐指数量化(仅输出1-10数字)
AI_GENERATE(
bigdata_public_modelset.default.Qwen3-1.7B-GGUF,
DEFAULT_VERSION,
CONCAT('请根据以下评论的正面程度给出推荐指数,仅输出1-10之间的数字(1表示极不推荐,10表示极力推荐)。待分析的评论:', comment_text),
'{"max_tokens": 500, "temperature": 0.2}'
) AS recommend_index,
user_city
FROM consumer_comment;
3.执行操作
将代码写到 SQL 编辑框,点击「运行」;
等待任务执行(5 条测试数据耗时约 5-8 秒),查看「运行日志」无报错即执行成功。
五、分析执行结果
输出结果

结果解读
场景分类:模型精准匹配评论中的消费场景,无超出「居家 / 办公 / 出行 / 休闲 / 其他」的冗余输出;
推荐指数:正向评论(C001-C004)指数≥8,负面评论(C005)指数 = 1,符合情感正向程度的量化逻辑;
数据完整性:所有字段无空值,模型输出完全符合提示词的格式约束(无文字描述、仅指定内容)。
六、体验反馈
- 核心优势(贴合新手 / 分析师需求)
零门槛集成 AI:无需学习 Python/AI 框架,纯 SQL 即可调用大模型,数据分析师无需跨工具就能完成智能分析,执行流程与普通 SQL 一致;
资源成本可控:5 条测试数据仅消耗 0.01 CUH,500CUH 试用额度可支撑数万条数据分析,0 元即可完成核心场景验证;
结果可控性高:通过提示词限定输出范围 + 低 temperature(0.2),避免大模型输出冗余内容,结果可直接用于后续统计(如「居家场景推荐指数均值计算」)。 - 待优化点
提示词依赖度高:若未明确「仅输出指定选项」,模型可能输出冗余内容(如「居家场景,推荐指数 9 分」),需精细化设计提示词;
执行效率:批量分析 1000 条以上数据时,耗时约 1-2 分钟,略慢于普通 SQL 查询;
模型规格限制:Qwen3-1.7B-GGUF 对超长文本(>500 字)分析准确率略有下降,需精简评论内容。 - 实操建议
提示词设计:务必添加「输出仅包含 XXX」「仅限以下选项」等约束,优先测试 10 条以内数据验证提示词效果;
批量处理:分析超 1000 条数据时,按「评论时间」分区查询,避免全表扫描;
模型升级:若需更高准确率,可替换为Qwen3-7B-GGUF(中量级模型),仅需修改 SQL 中的模型名,无需调整其他逻辑。