基于AI分词模型,构建一个简陋的Web应用

简介: 前言内容纯属个人经验,若有不当或错误之处,还请见谅,欢迎指出。文中大致介绍了,如何快捷地使用PaddleHub服务化部署一个简单的AI模型,并简单包装成一个Web应用的过程。

前言

内容纯属个人经验,若有不当或错误之处,还请见谅,欢迎指出

文中大致介绍了,如何快捷地使用PaddleHub服务化部署一个简单的AI模型,并简单包装成一个Web应用的过程。

主要工具

  • Flask(python的Web框架)
  • PaddleHub(飞桨的预训练模型库)

1. 效果展示

0164819a22bf4cb784e2072797833f26.png

2. 应用设计

总体思路如下:


使用PaddleHub部署对分词模型lac进行服务化部署

用Flask框架构建app

app从前端获取请求,将请求转发给lac服务,将得到的响应再显示到前端

使用了jinja2模板引擎(没有做前后端全分离,一是简陋的应用没必要,二是我还不会,哈哈)

3. 实现

3.1. lac分词模型的服务化部署

1、什么是服务化部署?

“部署”这个词我见到过很多次了,但总对它的意思有些模糊。有时,将一个AI模型训练好后,保存为本地文件,然后我们就可以在python脚本中加载模型以及使用模型进行预测,这样的过程也称为“部署”。


服务化部署,就是将模型部署为一个“Web服务”。这样部署的效果就是,你只需要对相应的端口发送合适的请求,就可以得到模型的预测结果,即响应。而使用该模型不再需要各种各样的环境依赖(部署的模型本身仍然是运行在其依赖的环境中的)。


感觉说得还是有点迷糊,先就这样叭。

2、lac分词模型的部署方法


lac是PaddleHub模型仓库中的一个“预训练模型”,即已经训练好的模型,部署非常简单(在此之前你需要在python环境中安装好PaddleHub的库,具体安装方法不再赘述,可自行去github上查看相应的文档:PaddleHub),只需要两步:

  • 下载lac模型
  • 一行命令部署

运行下面两行代码时,就会自动下载lac模型(通常会下载到C盘用户目录的.paddlehub文件夹中,通常还有一个README.md文件,里面是模型的介绍以及使用教程)

import paddlehub as hub
lac = hub.Module(name="lac")

用下面的代码对模型进行测试:

import paddlehub as hub
lac = hub.Module(name="lac")
test_text = ["今天是个好天气。"]
results = lac.cut(text=test_text, use_gpu=False, batch_size=1, return_tag=True)
print(results)
#{'word': ['今天', '是', '个', '好天气', '。'], 'tag': ['TIME', 'v', 'q', 'n', 'w']}

然后命令行启动服务完成部署(不执行上面的代码,直接运行命令,也可以自动下载模型),

hub serving start -m lac

启动成功时的终端输出:

 * Running on all addresses (0.0.0.0)
 * Running on http://127.0.0.1:8866
 * Running on http://192.168.43.166:8866
INFO 2023-03-17 00:12:29,487 _internal.py:224] Press CTRL+C to quit

3.2 使用Flask构建app

1、目录结构

- templates
  - index.html
- app.py
- forms.py

:templates这个文件夹是固定的,与flask框架的render_template搭配使用,html文件都放里面,不然找不到。

2、forms.py

定义了一个表单类TextForm,之后就从网页的表单中输入待分析的文本,将数据传到后端。

from flask_wtf import FlaskForm
from wtforms import StringField
from wtforms.validators import DataRequired
class TextForm(FlaskForm):
    text = StringField('待分析的文本', validators=[DataRequired(message="不能为空")])

3、app.py

该脚本也会启动一个Web服务,直接在浏览器输入链接http://127.0.0.1:5000即可访问,其中5000app.run()中的port参数指定。

from flask import Flask, jsonify, render_template, request
import requests
from forms import TextForm
app = Flask(__name__)
app.config['SECRET_KEY'] = 'your_secret_key_here'
@app.route('/', methods=['GET', 'POST'])
def predict():
  # 实例化一个表单对象
    form = TextForm()
    if form.validate_on_submit():
        # 1. 将表单的文本数据转换为字典 --> lac服务的输入要求是字典
        data = {"text": form.text.data}
        # 2. 向paddlehub的lac服务发送请求 --> 链接是使用paddlehub部署时内部默认指定的
        response = requests.post("http://127.0.0.1:8866/predict/lac", json=data)
        result = response.json()
        results = result['results']
        return render_template('index.html', form=form, results=results)
    return render_template('index.html', form=form)
if __name__ == '__main__':
    app.run(debug=True, port=5000)  # port指定运行的端口

3、index.html

主页内容。

html文件中,使用了一些属于flask的jinja2(模板引擎,渲染html文件)的语法,即带{% %}{{ }}的内容。其中{% %}实现控制结构,{{ }}引用从render_template传过来的参数。

由于我前端了解较少,下面的页面显示起来是比较简陋的,但核心功能已经完成(能run就行)。

<h1>体验分词功能</h1>
<form action="" method="post" class="mt-4">
    <!-- csrf这一句好像可以删掉 -->
    {{ form.csrf_token }}
    {{ form.text(class='input', style='width:500px', placeholder='请输入待分析的文本') }}
    <input type="submit" value="Submit">
</form>
{% if results %}
    <p>分词结果如下:</p>
{% endif %}
<p>
{% for word in results %}
    {{ word }} 
{% endfor %}
</p>

4. 小结

  • 本次实现了一个简陋的网页应用,应用的核心功能——分词,是由另一个独立运行的服务lac提供的。将AI模型独立部署有一个好处,即它可以同时为多个网页应用提供服务。
  • 也是我自己是对之前学习的Flask知识的一次小的实践尝试。


相关文章
|
1天前
|
数据采集 人工智能 安全
阿里云携手DeepSeek,AI应用落地五折起!
近年来,人工智能技术飞速发展,越来越多的企业希望借助AI的力量实现数字化转型,提升效率和竞争力。然而,AI应用的开发和落地并非易事,企业往往面临着技术门槛高、成本投入大、落地效果难以保障等挑战。
25 1
|
6天前
|
存储 人工智能 NoSQL
Airweave:快速集成应用数据打造AI知识库的开源平台,支持多源整合和自动同步数据
Airweave 是一个开源工具,能够将应用程序的数据同步到图数据库和向量数据库中,实现智能代理检索。它支持无代码集成、多租户支持和自动同步等功能。
66 14
|
8天前
|
人工智能 Linux iOS开发
exo:22.1K Star!一个能让任何人利用日常设备构建AI集群的强大工具,组成一个虚拟GPU在多台设备上并行运行模型
exo 是一款由 exo labs 维护的开源项目,能够让你利用家中的日常设备(如 iPhone、iPad、Android、Mac 和 Linux)构建强大的 AI 集群,支持多种大模型和分布式推理。
239 100
|
8天前
|
人工智能 开发框架 数据可视化
Eino:字节跳动开源基于Golang的AI应用开发框架,组件化设计助力构建AI应用
Eino 是字节跳动开源的大模型应用开发框架,帮助开发者高效构建基于大模型的 AI 应用。支持组件化设计、流式处理和可视化开发工具。
138 27
|
8天前
|
人工智能 自然语言处理 搜索推荐
现在最火的AI是怎么应用到体育行业的
AI在体育行业的应用日益广泛,涵盖数据分析、伤病预防、观众体验、裁判辅助等多个领域。通过传感器和可穿戴设备,AI分析运动员表现,提供个性化训练建议;预测伤病风险,制定康复方案;优化比赛预测和博彩指数;提升观众的个性化内容推荐和沉浸式观赛体验;辅助裁判判罚,提高准确性;发掘青训人才,优化训练计划;智能管理场馆运营和票务;自动生成媒体内容,提供实时翻译;支持电竞分析和虚拟体育赛事;并为运动员提供个性化营养和健康管理方案。未来,随着技术进步,AI的应用将更加深入和多样化。
|
8天前
|
人工智能 关系型数据库 分布式数据库
PolarDB 开源基础教程系列 7.4 应用实践之 AI大模型外脑
PolarDB向量数据库插件通过实现通义大模型AI的外脑,解决了通用大模型无法触达私有知识库和产生幻觉的问题。该插件允许用户将新发现的知识和未训练的私有知识分段并转换为向量,存储在向量数据库中,并创建索引以加速相似搜索。当用户提问时,系统将问题向量化并与数据库中的向量进行匹配,找到最相似的内容发送给大模型,从而提高回答的准确性和相关性。此外,PolarDB支持多种编程语言接口,如Python,使数据库具备内置AI能力,极大提升了数据处理和分析的效率。
35 4
|
9天前
|
人工智能 资源调度 API
AnythingLLM:34K Star!一键上传文件轻松打造个人知识库,构建只属于你的AI助手,附详细部署教程
AnythingLLM 是一个全栈应用程序,能够将文档、资源转换为上下文,支持多种大语言模型和向量数据库,提供智能聊天功能。
2439 14
|
10天前
|
人工智能 自然语言处理 数据可视化
Cursor 为低代码加速,AI 生成应用新体验!
通过连接 Cursor,打破了传统低代码开发的局限,我们无需编写一行代码,甚至连拖拉拽这种操作都可以抛诸脑后。只需通过与 Cursor 进行自然语言对话,用清晰的文字描述自己的应用需求,就能轻松创建出一个完整的低代码应用。
621 8
|
11天前
|
机器学习/深度学习 存储 人工智能
MNN-LLM App:在手机上离线运行大模型,阿里巴巴开源基于 MNN-LLM 框架开发的手机 AI 助手应用
MNN-LLM App 是阿里巴巴基于 MNN-LLM 框架开发的 Android 应用,支持多模态交互、多种主流模型选择、离线运行及性能优化。
884 14
MNN-LLM App:在手机上离线运行大模型,阿里巴巴开源基于 MNN-LLM 框架开发的手机 AI 助手应用
|
11天前
|
安全 Linux 开发工具
零基础构建开源项目OpenIM桌面应用和pc web- Electron篇
OpenIM 为开发者提供开源即时通讯 SDK,作为 Twilio、Sendbird 等云服务的替代方案。借助 OpenIM,开发者可以构建安全可靠的即时通讯应用,如 WeChat、Zoom、Slack 等。 本仓库基于开源版 OpenIM SDK 开发,提供了一款基于 Electron 的即时通讯应用。您可以使用此应用程序作为 OpenIM SDK 的参考实现。本项目同时引用了 @openim/electron-client-sdk 和 @openim/wasm-client-sdk,分别为 Electron 版本和 Web 版本的 SDK,可以同时构建 PC Web 程序和桌面应用(Wi
28 2

热门文章

最新文章