#人机交互

Susan STEM
4个月前
在讨论 AI-Native 软件范式(AI-Native Systems) 时,我们必须先承认一个现实:用户从来没有被教育过如何使用“语言作为系统界面”。过去三十年他们接受的是另一套训练: 无数个 App 容器,每个 App 代表一个单独的世界,有自己的按钮、菜单、图标、工作流。用户的心智是被图形界面塑形的。 而当你突然把一个纯语言界面放到他们面前——光的、秃的,没有工具条,没有按钮,没有模式切换——大多数用户是会本能不适的。 因为这不是他们被社会化学习过的操作方式。 这正是 AI-Native 的悖论: 语言本来是人类最自然的界面,但在软件里,它反而变成“最陌生的界面”。 换句话说: 用户需要被重新训练,让语言重新成为界面。 但“语言即界面”其实只是表层。真正的底层结构是: 语言 → 结构 → 调度 语言不是聊天,语言是可执行结构; 结构不是代码,结构是可调度的认知单元; 调度不是操作系统,调度是系统的生命机制。 要让消费者理解一个“没有 App、没有按钮、没有菜单”的世界,他们需要一个适应期。因为这是一种范式迁移: 从“点按钮”到“发起意图”; 从“在 App 之间切换”到“让结构在后台自动调度”; 从“模仿电脑的操作方式”到“让电脑模仿人的思考方式”。 这就是 AI-Native 时代真正的冲击点: 不是技术本身,而是用户心智的迁移速度。
凡人小北
5个月前
《为什么 95% 的 AI Agent 做不起来?》 非常推荐,踩的坑和解决方案跟我们几乎一模一样,虽然讲得很清楚,架构师视角,值得花 10 分钟读完,应用到工程实践中。 几个点: 1. 现在大家都还在拼 prompt,只有少数人开始拼上下文结构。 特别对的一点是:prompt engineering 已经不是核心了,context engineering 才是下一阶段的主战场。给再聪明的大模型喂进去一堆乱七八糟的输入,它还是只会胡说八道。 市面上跑得稳的 Agent,都是在“什么该让模型看、怎么看、以什么形式看”上下了大功夫的,这一点现在应该是共识了。 2. 记忆系统这事,光是能存起来远远不够 很多公司的 memory,说得好听点是长期记忆,难听点就是个聊天记录仓库。 真正落地的系统要分层记忆(用户级 / 团队级 / 系统级)。文章读完我感觉更多的篇 B 端,C 端要思考的是结合业务来做分层记忆,并且要能让人知道 它记住了什么,并且用户能自己改。否则就不是记忆是监控。 3. 不迷信单模型,这年头还不做 routing 的 agent 就别说自己做 infra 了。 这篇文章提到多模型路由,说得很对。不可能所有请求都丢给 GPT5,成本和时延直接炸掉,表现也未必好。 真正合理的系统,一定是: 快速反应的轻模型做分类和前处理、重模型做主任务、补一个模型做验证或追问。 一个 agent 后面绑定的一定是一个 LLM 团队。 4. 可追溯/可控/可信,是企业愿意用 Agent 的底线 很多人只想着怎么让 agent 能回答,但企业更关心:这句话是从哪里来的?有没有越权?出了错我怎么追责? AI 要可治理。 5. 最被低估的一点:Agent ≠ Chatbot 这篇文章最后说到的一点我非常赞同但还不够狠:如果还在用聊天当所有用户交互的方式,那agent 最多是个语音助理。 真的 agent 应该是:先用语言调度任务,然后在页面上看到结构化结果,还能继续点选、调整、组合下一步。这部分很多公司现在在尝试了,交互上比之前全部自然语言高效了太多。 一个特别有意思的点,当主持人问观众“你们中有多少人构建了文本到 SQL 并投入生产?”时,没有一个人举手。