找回密码
 立即注册
搜索
查看: 2496|回复: 24

[软件] 将来的生成式AI应用是不是都应该学习使用者的喜好?

[复制链接]
     
发表于 2026-3-5 05:51 | 显示全部楼层 |阅读模式
使用AI生成内容时用户的很多精力、时间和金钱用在调整和补充需求,尤其在是生成小说、图片、音视频的场景,多轮反馈的效率有点低。要是AI应用能像推荐算法能主动长期学习用户的喜好,比如持续更新一份记录用户喜好的md文件,应该能提高工作效率并降低使用成本吧。

我想起之前让Nano Banana生成图片需要多次对话修改结果,才有了上面的念头。查了下OpenCraw的USER.md 似乎很符合这个想法。我还没用过小龙虾,不知道是不是一回事。
回复

使用道具 举报

     
发表于 2026-3-7 11:37 来自手机 | 显示全部楼层
最适合AI场景的编码都还是需要反复调整和补充需求,你找个员工给你干活都需要反复改。如果不需要调整那就是工具,不是AI了
回复

使用道具 举报

     
发表于 2026-3-7 13:39 来自手机 | 显示全部楼层
目前我在做的东西就类似这种,不过这事比lz想象的要复杂一些。所谓一个人说他需要的往往不是他真正想要的,这里其实牵扯到要如何从一个人的口头需求剖析出他真正需求的问题。另外整个过程很明显牵扯到大量个人的隐私数据,怎么安全的传输和分析这些信息也是个问题

另外还有成本问题,分析和记忆都有额外的开销。目前的模型成本按我搭建的原型光一次会话就要消耗一两刀,还有时间成本带来的反应速度问题
回复

使用道具 举报

     
发表于 2026-3-7 14:17 | 显示全部楼层
Gemini 默认情况下就会学习

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

     
 楼主| 发表于 2026-3-7 17:15 | 显示全部楼层
我是快乐小马甲 发表于 2026-3-7 11:37
最适合AI场景的编码都还是需要反复调整和补充需求,你找个员工给你干活都需要反复改。如果不需要调整那就是 ...

编程确实如你所说,所以我一楼说“ 尤其在是生成小说、图片、音视频的场景”,我后面举的例子也是nano banana生成图片。我当时的做法是,先找gemini对话讨论需求,多轮对话后生成一份我较为满意的提示词,然后把这份详细的提示词提交给nano banana让它生图。要我自己写这么详细的提示词肯定写不出来。

我昨天看魔法师蛋小丁的微博,他提到个概念,以提示词开发和微调为目的的IDE。我也觉得关于提示词的设计是现阶段极为重要的一环,如果在这个环节ai能学习用户的喜好,比如说ai厂商以海量用户的对话为基础,生成一个自家ai模型用户的使用倾向模型,再加上个人用户的用户画像,很有可能通过预测来扩充用户的提示词,缩短很多不必要的多轮对话。又或者ai自己能更准确的预测到用户后续的关注点,在当前工作完成时,对一些可能发生的需求提前进行询问。我刚想到这个概念是不是有点像cpu的分支预测?
回复

使用道具 举报

     
 楼主| 发表于 2026-3-7 17:35 | 显示全部楼层
andychen 发表于 2026-3-7 13:39
目前我在做的东西就类似这种,不过这事比lz想象的要复杂一些。所谓一个人说他需要的往往不是他真正想要的, ...

这个确实是,我自己的想法是:
1.用户越多的AI模型厂商会比其他竞争者有更多的优质数据,不光是用户提供的知识,还有用户的行为习惯。它的模型很可能在实际应用中越来越好用。甚至说当AI再往后发展,或许和下棋模型类似,用海量人类用户的使用数据训练只是一个过渡阶段,llm通过自我对话+海量场景agent的训练会更强,就像以前新闻说阿法狗zero通过新算法和自我对弈比学人类棋谱更好的成绩。不过现阶段这想法有点幻想了。

2.隐私是个问题。有可能没办法,只能污染再治理。下一代人可能就处于信息裸奔风险中。

3.关于成本和时间,如果能比现阶段使用流程的效率高,这种针对真人的喜好/行为模式的优化或许也是必然的。

4.补充另一个想法:我最近用codex编程用的多,它的中文语言风格比claudecode别扭的多。我想到我们人类的语言风格也随着时间推移而改变,明清小说中的口语/白话文和现在的差别就很大,未来的又会发生改变。ai模型得从同期用户的使用数据来学习怎么说同时期的人话。
回复

使用道具 举报

     
 楼主| 发表于 2026-3-7 17:41 | 显示全部楼层
小野賢章 发表于 2026-3-7 14:17
Gemini 默认情况下就会学习

哦,原来是这样。那看来像谷歌这样的企业会越来越强,数据护城河深很多,马太效应。不经想到百度和腾讯的用户数据应该领先同行,将来能追上头部AI吗。
回复

使用道具 举报

发表于 2026-3-7 17:53 | 显示全部楼层
Sza 发表于 2026-3-7 17:41
哦,原来是这样。那看来像谷歌这样的企业会越来越强,数据护城河深很多,马太效应。不经想到百度和腾讯的 ...

豆包也有个记忆功能,不过现在是形同虚设
谷歌是分长期记忆(自己添加提示词)+对话记忆(记录你所有对话,这个容易出屎山,说实话这个体验不是太好,要定期清理or整理)
回复

使用道具 举报

     
发表于 2026-3-7 17:55 来自手机 | 显示全部楼层
kimi就有个记忆系统,你可以先发起一个对话,告诉它你的偏好,然后告诉它记住,后续就可以自动调用
回复

使用道具 举报

     
 楼主| 发表于 2026-3-7 18:10 | 显示全部楼层
哦,看了楼上两位的回复,要是能专门针对用户数据做训练,像一楼说的推荐算法那样,应该会更好用。可能模型厂家以后就会做这事了。
回复

使用道具 举报

     
发表于 2026-3-7 18:27 | 显示全部楼层
现在的记忆系统其实原理非常简单粗暴,就是发一段prompt让大模型每次对你的对话精华进行提炼总结,把提炼出来的文字记下来,但是效果已经很不错了
回复

使用道具 举报

     
发表于 2026-3-7 20:10 来自手机 | 显示全部楼层
是的,Midjourney就有一个-p参数,可以参考自己的喜好来生成。

—— 来自 鹅球 v3.5.99
回复

使用道具 举报

     
 楼主| 发表于 2026-3-7 21:03 | 显示全部楼层
elxy 发表于 2026-3-7 20:10
是的,Midjourney就有一个-p参数,可以参考自己的喜好来生成。

—— 来自 鹅球 v3.5.99 ...

长知识了
回复

使用道具 举报

     
发表于 2026-3-7 21:22 来自手机 | 显示全部楼层
你用codex-cli之类的可以让他从过往的sessions里总结你的使用习惯,用户画像,给出使用建议
回复

使用道具 举报

     
 楼主| 发表于 2026-3-7 22:01 | 显示全部楼层
limon 发表于 2026-3-7 21:22
你用codex-cli之类的可以让他从过往的sessions里总结你的使用习惯,用户画像,给出使用建议  ...

这个思路很不错,我之后去试试
回复

使用道具 举报

     
发表于 2026-3-8 00:33 | 显示全部楼层
类似推荐系统
满足已有性癖 再不断让用户发现新的性癖 最终变混沌卵
可能基于 https://stage1st.com/2b/thread-2275077-1-1.html 的用户数据就可以造
回复

使用道具 举报

     
 楼主| 发表于 2026-3-8 02:03 | 显示全部楼层
本帖最后由 Sza 于 2026-3-8 02:05 编辑
mono 发表于 2026-3-8 00:33
类似推荐系统
满足已有性癖 再不断让用户发现新的性癖 最终变混沌卵
可能基于 https://stage1st.com/2b/thr ...

我前几天在发帖时想起过那个帖子,当时快速温习了一下,感觉那个帖子的功能和我的想法有点像但又不完全像。

我昨晚简单思考了一下,我的想法大概是这么个意思:

1.厂商把所有用户数据拿去训练一个新模型。这个模型可以更好的预测接下来的多轮对话。这个环节需要用户的个人信息,比如语言、性别、年龄、对话风格、网络IP、时区、使用时间段、操作系统、硬件配置(包括手机)、AI平台或者其他隐私信息,便于让模型通过对不同用户分类来提高预测准确率。

2.只知道对方是什么类型的人还不够,因为每个人都有细微差别。这时候需要模型能通过当前用户的使用记录提取出对话习惯、喜好等信息,进一步提高预测准确率。还得考虑到用户行为和喜好发生变化。

我认为厂商已经在做想法1了。而关于想法2,楼里很多人也都提到了。

你说的发现新癖好,从商业公司追求更高日活或用户使用时长的方向倒是可以考虑,通过设计增加新鲜感,从让用户在情绪上更愿意用AI。



回复

使用道具 举报

     
发表于 2026-3-8 18:00 来自手机 | 显示全部楼层
你说的那叫skills,现在也有了。

—— 来自 HONOR PGT-AN10, Android 16, 鹅球 v3.5.99-alpha
回复

使用道具 举报

     
 楼主| 发表于 2026-3-8 22:56 | 显示全部楼层
diohanmilton 发表于 2026-3-8 18:00
你说的那叫skills,现在也有了。

—— 来自 HONOR PGT-AN10, Android 16, 鹅球 v3.5.99-alpha ...

好的,了解了。我查了下还有人开发生成视频所需的skills。
回复

使用道具 举报

     
发表于 2026-3-9 01:02 | 显示全部楼层
我觉得这个趋势下,如何让“自己的喜好”变得更容易被自己信任的AI去获取是个值得思考的问题。

比如,我如果想告诉AI我的电影喜好,那么没有什么比我看过的所有电影列表和打分更有参考价值了。这时候如果我用的是一些封闭的、不易导出用户数据的电影记录app,那么这一步就会变得很繁琐(那些app将来可能会长出自己的AI让用户提问,但那样会剥夺用户对AI的选择权)。反之,如果我的电影记录app随时能导出一份任何AI都能看懂的开放格式的文件,那么我才能游刃有余。笔记、音乐、读书、播客、游戏等等都同理。

换言之,我自己的用户画像应该要能透明地存在于我自己手里,方便我有选择地提供给AI。

但是关于AI生图、生视频,我显然不可能每次都把所有我喜欢的生成出来的媒体文件喂给AI来告诉它“我的喜好”,目前能想到的也只有尽力维护一份自己觉得好用的、可复用的提示词了。

另外你说的“通过预测来扩充用户的提示词”,现在倒是有一些产品专门负责优化提示词,比如Pretty Prompt,它优化的时候就会针对你的现有提示词预测几个你可能遗漏了的细节,然后问几个问题,根据你选完的答案来补充和润色提示词。不过这种问答和润色交给LLM本身去做肯定也做得到就是了。
回复

使用道具 举报

     
 楼主| 发表于 2026-3-9 03:21 | 显示全部楼层
本帖最后由 Sza 于 2026-3-9 03:24 编辑
icue 发表于 2026-3-9 01:02
我觉得这个趋势下,如何让“自己的喜好”变得更容易被自己信任的AI去获取是个值得思考的问题。

比如,我如 ...

我想用户电影喜好关联到厂商潜在收入。要么长期使用开源的播放器(可能还得找稳定的盗版片源),要么得找爬虫脚本爬这些闭源软件的数据,有法律风险。

我对隐私保护有点悲观,在我的理解中用户隐私是数据金矿,很难放弃。只能等有意愿的开源企业团队分享安全又满足需求(但不一定最好)的产品。好的推荐算法和好用的模型很小团队比较难完成。

我是在想以后(或者现在就有)的模型会不会把这些交流效率需求打包进训练内容。举个例子:当文生图模型发现用户提示词用的是中文,上传的图是二次元插画某个人物,提的要求如何如何,模型分辨并会生成这类用户最可能满意的图片,降低废图率。润色提示词确实很有用,要是模型能更好预测多轮对话后的情况会更好用。

打比方的话,我设想的能分辨用户喜好的llm生来就像个算命先生。它从顾客口音、表情和神色、从哪个方位来、步态、穿着、手上提的东西、脸和手上是否有痕迹、对话内容等情报大致分辨出对方的个人状况。顾客第一次提出问题后,它就能根据以上情报回答出一些顾客觉得惊奇的回答。它再通过对话一步步了解情况,中间巧妙地加入提问,通过这一套方法更好的拿捏住用户心理。我想这个比喻应该准确描述了我的想法。
回复

使用道具 举报

     
 楼主| 发表于 2026-3-10 04:40 | 显示全部楼层
本帖最后由 Sza 于 2026-3-10 05:09 编辑

我根据14楼的建议让codex对当前对话总结了一下,我和gpt 5.4的对话是这样的:
  1. › 从以上全部对话中,你认为我对当前任务有什么偏好?我在该项目中更关心什么?在追加需求时,我更可能会提出什么样的要求?如
  2.   果我是产品经理,我的用户画像是什么样的?

  3. • 基于这整段对话,我对你的判断是这样的。
  4. (中间省略)
  5.   如果你愿意,我可以下一步把这个判断反过来整理成一份:
  6.   “面向你的协作原则”,以后我按那套方式直接和你配合。

  7. › 可以,请你整理一份面向我的协作原则
  8. (以下省略)
复制代码


我后面重新生成了一下对话,然后让它把相关内容记录在markdown文件中
  1. › 好。请你将“与我协作时的最佳工作方式”、“我对当前项目的决策偏好清单”和“面向我的协作原则”归纳为一份md格式的文件。现在请你先设计大纲,然后再追加细节,最后把撰写计划交给我审核。

  2. (中间省略,之后是AI的回复,包括计划和执行)

  3. • 已整理完成。

  4.   文件

  5.   - COLLABORATION_PROFILE.md:1

  6.   内容包含

  7.   - 与你协作时的最佳工作方式
  8.   - 你对当前项目的决策偏好清单
  9.   - 面向你的协作原则
  10.   - 面向当前项目的默认协作模板
  11.   - 高频追加需求预测
  12.   - 用户画像(工作型)

  13.   我做的处理

  14.   - 文档写成了长期可复用的协作约定,不是一次性聊天总结
  15.   - 重点保留了你在本项目里反复表现出的稳定偏好
  16.   - 语气采用“工作约定”而不是“人格分析”

  17.   如果你要,我下一步可以继续做两种补充之一:

  18.   1. 把这份文档再压缩成 一页版摘要
  19.   2. 把这份文档改写成 AGENTS 风格的执行规范
复制代码

我只是个水平低的使用者,这种方法我感觉值得一试。
回复

使用道具 举报

     
发表于 2026-3-10 15:48 来自手机 | 显示全部楼层
污染记忆的东西,不如不用

— from Google Pixel 10 Pro XL, Android 16, S1 Next Goose v3.5.99
回复

使用道具 举报

     
发表于 2026-3-10 15:57 | 显示全部楼层
我生图无法从chatgpt转去banana就是因为我特么利用几个固定的对话已经把gpt调教到不错了,转去banana还要从头来。

结果就在我想着要么免费试用一个月看看能不能调教好banana的时候,google他突然搞清楚了我的真实所在地,把我PC主机给ban了。

我一直认为这是GPT泄露给google的!它吃醋了!
回复

使用道具 举报

     
发表于 2026-3-10 16:41 来自手机 | 显示全部楼层
你改不了模型权重(或者说改了污染权重更危险),所以只能把习惯当提示词的一部分每次发指令时都带着,结果又是一个token消耗大户。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2026-4-22 16:41 , Processed in 0.140216 second(s), 7 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表