我用 Python 写诗,居然还挺像那么回事:生成式 AI 在内容创作中的实战玩法

简介: 我用 Python 写诗,居然还挺像那么回事:生成式 AI 在内容创作中的实战玩法

我用 Python 写诗,居然还挺像那么回事:生成式 AI 在内容创作中的实战玩法

大家好,我是 Echo_Wish。

说实话,我第一次用程序自动写诗的时候,是抱着“看看笑话”的心态。

结果它写出来一句:

“月光在服务器上缓慢编译夜色”

我愣了一下。

这不是瞎写,这是有点味道。

这几年,生成式 AI 已经从“能聊天”走到“能创作”。写诗、写短文、写脚本、写段子,甚至写小说开头。很多人问我:

用 Python 能不能自己做一个“自动写诗机”?

答案是:能,而且不难。

今天我们就聊聊——生成式 AI 在内容创作中的实践:用 Python 自动写诗 / 短文

我们不讲空理论,直接上结构 + 思路 + 代码。


一、生成式 AI 写作的本质是什么?

先说人话版本。

生成式写作,本质是:

根据已有文本的“概率规律”,预测下一个词。

你可以理解为一个极其聪明的“接龙大师”。

从技术角度看,它通常基于:

  • Transformer 架构
  • 自回归语言模型
  • 概率采样机制

核心公式其实就一句话:

P(下一个词 | 前面所有词)

不断往前滚动,就生成整段文本。


二、最简单的自动写诗:调用大模型 API

我们先来一个实战版本,用 Python 直接生成诗歌。

示例(假设使用通用 LLM API 接口):

from openai import OpenAI

client = OpenAI(api_key="YOUR_API_KEY")

prompt = """
请写一首关于“程序员深夜加班”的现代诗,
风格偏抒情,带一点孤独感。
"""

response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[
        {
   "role": "system", "content": "你是一位有文学气质的诗人"},
        {
   "role": "user", "content": prompt}
    ],
    temperature=0.9  # 增加创作自由度
)

print(response.choices[0].message.content)

这里有几个关键参数:

  • temperature:控制创造性(越高越发散)
  • system prompt:决定风格
  • user prompt:决定主题

这就像:

你给 AI 定了人设,再给它一个题目。


三、如果不想依赖 API?本地生成可以吗?

可以。

我们可以用 Hugging Face 上的开源模型,比如 GPT2 中文模型。

from transformers import GPT2LMHeadModel, GPT2Tokenizer
import torch

model_name = "uer/gpt2-chinese-cluecorpussmall"
tokenizer = GPT2Tokenizer.from_pretrained(model_name)
model = GPT2LMHeadModel.from_pretrained(model_name)

input_text = "深夜的机房里"
input_ids = tokenizer.encode(input_text, return_tensors="pt")

output = model.generate(
    input_ids,
    max_length=80,
    do_sample=True,
    top_k=50,
    top_p=0.95,
    temperature=0.8
)

result = tokenizer.decode(output[0], skip_special_tokens=True)
print(result)

几个关键参数解释一下:

  • top_k:限制候选词数量
  • top_p:控制累计概率
  • temperature:创作自由度
  • do_sample=True:启用采样而不是贪婪搜索

这几个参数,决定了诗“像不像人写的”。


四、采样机制决定“文风”

给你看个简单对比:

低 temperature(0.3)

  • 更严谨
  • 更像说明文
  • 但容易重复

高 temperature(1.0)

  • 更浪漫
  • 更跳跃
  • 但可能胡言乱语

这就是生成式创作的核心哲学:

AI 不缺想象力,缺的是“约束”。


五、自动写短文:结构化 Prompt 设计

如果你想写一篇 300 字短文,最好别直接一句话:

“帮我写个故事。”

而是结构化提示。

prompt = """
请写一篇300字左右的短文:

主题:人工智能与孤独
结构:
1. 开头提出矛盾
2. 中间描写一个场景
3. 结尾给出温柔的思考

风格:温暖但带一点哲学意味
"""

这叫:

Prompt Engineering(提示工程)

你给 AI 的结构越清晰,它越稳定。


六、如果想玩得更高级?

我们可以做:

  • 风格迁移
  • 关键词控制
  • 韵律控制
  • 自动押韵

例如简单押韵控制:

keywords = ["月光", "代码", "孤独", "城市"]

prompt = f"""
写一首现代诗,必须包含这些词:
{",".join(keywords)}

每两句押韵一次。
"""

你会发现,模型会尝试满足这些约束。

虽然不是百分百精准,但已经非常接近“创作辅助工具”。


七、生成式写作的工作流图

从流程上看,其实就四步:

  1. 输入 Prompt
  2. Token 化
  3. Transformer 预测
  4. 采样输出

听着很复杂,本质就是:

概率预测 + 采样控制。


八、真实使用场景

我自己在内容创作中,AI 用得最多的是:

  • 生成文章初稿
  • 生成诗性开头
  • 想标题
  • 改写语气

但我从来不会:

直接复制粘贴。

为什么?

因为 AI 最大问题是:

  • 容易“正确但空洞”
  • 容易“华丽但没观点”

真正的价值在于:

它帮你破冰,而不是替你思考。


九、我的一点感受

生成式 AI 不会取代创作者。

但它会取代:

  • 不愿意进步的创作者
  • 不愿意拥抱工具的人

写诗不再是“天赋专属”,而是:

创意 + 技术 + 审美的结合。

我很喜欢这种感觉。

你用代码写诗,它给你灵感,你再改它的灵魂。

这不是机器替代人。

这是人类扩展自己。


十、最后一句话

如果你问我:

生成式 AI 在内容创作中最重要的是什么?

不是模型。

不是参数。

是:

你想表达什么。

AI 只是笔。

思想才是墨。

目录
相关文章
|
27天前
|
机器学习/深度学习 人工智能 PyTorch
写 PyTorch 总像在写脚本?试试 PyTorch Lightning,把模型训练变成“工程化项目”
写 PyTorch 总像在写脚本?试试 PyTorch Lightning,把模型训练变成“工程化项目”
266 14
写 PyTorch 总像在写脚本?试试 PyTorch Lightning,把模型训练变成“工程化项目”
|
2月前
|
数据采集 供应链 物联网
别再只会调用 API 了:一步步教你用 Python Fine-Tune 一个定制化大模型
别再只会调用 API 了:一步步教你用 Python Fine-Tune 一个定制化大模型
319 4
|
26天前
|
SQL 数据采集 人工智能
别把数据中台做成“数据坟场”:聊聊企业数据中台架构的真实落地之路
别把数据中台做成“数据坟场”:聊聊企业数据中台架构的真实落地之路
155 4
|
25天前
|
人工智能 安全 程序员
50%的人给了差评:龙虾为何在技术论坛翻车了?
OpenClaw(龙虾)AI工具因“自动赚钱”“代约主播”等夸张宣传走红,但吾爱破解论坛投票显示:50%技术用户未下载且不认可其能力。技术圈冷静源于见惯“神器”泡沫——AI擅写代码(搬砖),却难懂需求、统筹系统。它不是神药,而是待磨的砍柴刀。
209 3
50%的人给了差评:龙虾为何在技术论坛翻车了?
|
27天前
|
SQL 运维 分布式计算
别再盲目上 Serverless 了:聊聊 Serverless 数据分析的真相、成本和适用场景
别再盲目上 Serverless 了:聊聊 Serverless 数据分析的真相、成本和适用场景
142 9
|
21天前
|
分布式计算 运维 Kubernetes
别再手搓集群了:用 Terraform + Helm 把数据平台“养成宠物”变“放养牛群”
别再手搓集群了:用 Terraform + Helm 把数据平台“养成宠物”变“放养牛群”
154 5
|
1月前
|
自然语言处理 PyTorch 算法框架/工具
大模型太慢?别急着上 GPU 堆钱:Python + ONNX Runtime 优化推理性能实战指南
大模型太慢?别急着上 GPU 堆钱:Python + ONNX Runtime 优化推理性能实战指南
405 10
大模型太慢?别急着上 GPU 堆钱:Python + ONNX Runtime 优化推理性能实战指南
|
22天前
|
机器学习/深度学习 人工智能 自然语言处理
手撕 Transformer:从原理到代码,一步步造一个“小型大模型”
手撕 Transformer:从原理到代码,一步步造一个“小型大模型”
307 6
|
18天前
|
机器学习/深度学习 数据采集 人工智能
别再从零训练了:用迁移学习“借力打力”,小数据也能玩转大模型
别再从零训练了:用迁移学习“借力打力”,小数据也能玩转大模型
149 15
|
4月前
|
存储 自然语言处理 测试技术
一行代码,让 Elasticsearch 集群瞬间雪崩——5000W 数据压测下的性能避坑全攻略
本文深入剖析 Elasticsearch 中模糊查询的三大陷阱及性能优化方案。通过5000 万级数据量下做了高压测试,用真实数据复刻事故现场,助力开发者规避“查询雪崩”,为您的业务保驾护航。
1755 89