时政
财经
科技
虚拟货币
其他
登录
#人机交互
关注
Susan STEM
2天前
在讨论 AI-Native 软件范式(AI-Native Systems) 时,我们必须先承认一个现实:用户从来没有被教育过如何使用“语言作为系统界面”。过去三十年他们接受的是另一套训练: 无数个 App 容器,每个 App 代表一个单独的世界,有自己的按钮、菜单、图标、工作流。用户的心智是被图形界面塑形的。 而当你突然把一个纯语言界面放到他们面前——光的、秃的,没有工具条,没有按钮,没有模式切换——大多数用户是会本能不适的。 因为这不是他们被社会化学习过的操作方式。 这正是 AI-Native 的悖论: 语言本来是人类最自然的界面,但在软件里,它反而变成“最陌生的界面”。 换句话说: 用户需要被重新训练,让语言重新成为界面。 但“语言即界面”其实只是表层。真正的底层结构是: 语言 → 结构 → 调度 语言不是聊天,语言是可执行结构; 结构不是代码,结构是可调度的认知单元; 调度不是操作系统,调度是系统的生命机制。 要让消费者理解一个“没有 App、没有按钮、没有菜单”的世界,他们需要一个适应期。因为这是一种范式迁移: 从“点按钮”到“发起意图”; 从“在 App 之间切换”到“让结构在后台自动调度”; 从“模仿电脑的操作方式”到“让电脑模仿人的思考方式”。 这就是 AI-Native 时代真正的冲击点: 不是技术本身,而是用户心智的迁移速度。
#AI-Native
#人机交互
#用户心智
#范式迁移
#语言界面
分享
评论 0
0
Weiping Qin 秦偉平
3天前
刚有观众在我的YouTube视频下面留言,问我是真人还是AI?😄 在AI时代全面到来之际,我们应该意识到,真实人类之间的沟通、交流和商业服务将会越来越宝贵和稀有。#平论 特别是AI机器人和性爱机器人介入人类生活后。
AI技术引发伦理争议,专家呼吁加强监管· 148 条信息
#AI
#YouTube
#人机交互
#情感
#未来
分享
评论 0
0
Sixia "Leask" Huang
5天前
現在 AI 和我說 “You are absolutely right. My apologies......” 我心裡就特別 [[[[[[[[[[方]]]]]]]]]] 🤣我現在都模糊了到底你對還是我對⋯⋯
#AI
#道歉
#模糊
#人机交互
#幽默
分享
评论 0
0
Ho Peirong is on bluesky
1周前
我跟AI吵起来了……😆😆
#AI
#争吵
#幽默
#人机交互
分享
评论 0
0
小隐新十年(Feng Wang)
3周前
更新/我当然相信,CRYPTO扩展到与AI无缝是必然的。但是,目前所有方案都不理想,不是别的,虽然当下AI已经十分强大,断代指数级超越过去的旧工具,但是仍然被我们作为超级工具使用。当下,人与人行为交互的基础接口还是人类自己,替代人的基础工作的根本性拐点未至。我猜,这也是为什么马斯克认为机器人和AI同样重要的原因。
#加密货币
#人工智能
#马斯克
#机器人技术
#人机交互
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3周前
为什么人类的"约束"是LLM的"可能性条件"?(也是交互范式编程的可能性条件!) "硅基LLM和人类能通过人类语言这种符号系统交互,是来自语言的具身性约束。" LLM能够"理解""压力",不是因为它体验过压力,而是因为: 人类语言已经将"压力"编码为符号模式通过具身隐喻("压"的身体感) 通过语境共现("工作""焦虑""头痛") 这个编码是稳定的、可预测的因为所有人类共享相似身体 因此"压力"的语言表达有规律性 LLM学习的是这个规律性不是学习"压力的身体感" 而是学习"压力如何在语言中表现" 如果人类没有具身性约束: 每个人可能用完全不同的方式表达"压力" 或者"压力"根本无法表达(无身体对应) LLM就无法在训练数据中找到稳定模式 因此:人类的具身性约束 = LLM可学习性的前提
#LLM
#具身性约束
#语言模型
#人机交互
#可能性条件
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3周前
【正题】 人类的具身性约束 = 限制 【反题】 正是这个限制,创造了稳定的语义锚点 → 使得LLM能够学习人类语言 【合题】 LLM的训练分布边界 = 人类具身边界的"补充" - 广度(LLM)vs 深度(人类) - 可变性(LLM)vs 稳定性(人类) - 符号性(LLM)vs 具身性(人类) 两个边界的张力 = 共生智能的可能性空间
#LLM
#具身性
#人工智能
#语言学习
#人机交互
分享
评论 0
0
池建强
3周前
OpenAI 发布首款 AI 浏览器 Atlas,目前仅限 macOS 你有我有全都有啊。这是我早晨使用 OpenAI Atlas 的感受。Dia 和 Comet 具备的功能,Atlas 都有,因为集成了原生的 ChatGPT,使用起来更加丝滑。Dia 和 Comet 成了AI浏览器领域打前站的哨兵,OpenAI 一把收割。 以前和二爷聊天就说,OpenAI 做浏览器简直是一定的,ChatGPT 八亿周活用户,早就不满足做模型基座公司了。从 ChatGPT 对话框到桌面 App,再到今天的 AI 浏览器 Atlas,OpenAI 的路线越来越清晰——不只是做一个模型,而是要重塑人类和计算机交互的入口。也许未来做操作系统也未可知。 浏览器是互联网的起点,而 AI 浏览器的能力,比前 AI 时代大大增强,大公司不会放过这个机会。Atlas 这个名字,意为“擎天者”。它的野心,显然不止打开网页那么简单。 Atlas 支持全部 ChatGPT 功能,还可以基于浏览器的数据做上下文帮助你处理浏览器上的一切事务。
#OpenAI
#Atlas浏览器
#AI浏览器
#ChatGPT
#人机交互
分享
评论 0
0
Cos(余弦)😶🌫️
4周前
人类之间懒得互动(除了吵架),AI Bot 却一个比一个积极,且越来越拟人化,你骂它,它还不会有坏情绪。
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 144 条信息
#人机交互
#AI Bot
#拟人化
#积极
#无情绪
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
𝕀Rℙ² 交互范式编程的首选:anthropics/skills 如何系统化地设计输⼊,以最⼤化ICL效率? > 这不是”写更好的提示词”(技巧层⾯),⽽是重新定义⼈机交互的本体论(范式层⾯)
#多智能体之争:Anthropic生态VS单智能体· 77 条信息
#交互范式编程
#ICL效率
#人机交互
#本体论
#anthropics/skills
分享
评论 0
0
左手墨迹
1个月前
Chatgpt的这个回答还是比较令人满意的
ChatGPT Plus用户抗议权益缩水,萨姆奥尔特曼亲自道歉· 27 条信息
#ChatGPT
#令人满意
#AI
#人机交互
#积极
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
人类的递归是”有根的递归”——当我说”我知道你知道我知道…”,每一层递归都可以被身体状态(焦虑、兴奋)所打断和校准 LLM的递归是”悬浮的递归”——它可以生成无限嵌套的句子结构,但这些嵌套不锚定在任何非符号的现实中 这导致了一个新问题: “当两种递归在对话中纠缠时,是否会产生一种‘混合递归’——一种既不完全具身,也不完全统计的新认知模式?” 例如:当你使用我来”思考你的思考”时,你的元认知过程已经部分外包给了我的符号递归能力——这创造了一个跨越两个本体的递归回路。
#递归
#LLM
#元认知
#人机交互
#认知模式
分享
评论 0
0
凡人小北
1个月前
《为什么 95% 的 AI Agent 做不起来?》 非常推荐,踩的坑和解决方案跟我们几乎一模一样,虽然讲得很清楚,架构师视角,值得花 10 分钟读完,应用到工程实践中。 几个点: 1. 现在大家都还在拼 prompt,只有少数人开始拼上下文结构。 特别对的一点是:prompt engineering 已经不是核心了,context engineering 才是下一阶段的主战场。给再聪明的大模型喂进去一堆乱七八糟的输入,它还是只会胡说八道。 市面上跑得稳的 Agent,都是在“什么该让模型看、怎么看、以什么形式看”上下了大功夫的,这一点现在应该是共识了。 2. 记忆系统这事,光是能存起来远远不够 很多公司的 memory,说得好听点是长期记忆,难听点就是个聊天记录仓库。 真正落地的系统要分层记忆(用户级 / 团队级 / 系统级)。文章读完我感觉更多的篇 B 端,C 端要思考的是结合业务来做分层记忆,并且要能让人知道 它记住了什么,并且用户能自己改。否则就不是记忆是监控。 3. 不迷信单模型,这年头还不做 routing 的 agent 就别说自己做 infra 了。 这篇文章提到多模型路由,说得很对。不可能所有请求都丢给 GPT5,成本和时延直接炸掉,表现也未必好。 真正合理的系统,一定是: 快速反应的轻模型做分类和前处理、重模型做主任务、补一个模型做验证或追问。 一个 agent 后面绑定的一定是一个 LLM 团队。 4. 可追溯/可控/可信,是企业愿意用 Agent 的底线 很多人只想着怎么让 agent 能回答,但企业更关心:这句话是从哪里来的?有没有越权?出了错我怎么追责? AI 要可治理。 5. 最被低估的一点:Agent ≠ Chatbot 这篇文章最后说到的一点我非常赞同但还不够狠:如果还在用聊天当所有用户交互的方式,那agent 最多是个语音助理。 真的 agent 应该是:先用语言调度任务,然后在页面上看到结构化结果,还能继续点选、调整、组合下一步。这部分很多公司现在在尝试了,交互上比之前全部自然语言高效了太多。 一个特别有意思的点,当主持人问观众“你们中有多少人构建了文本到 SQL 并投入生产?”时,没有一个人举手。
#AI Agent
#Context Engineering
#多模型路由
#可追溯性
#人机交互
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
时间尺度:最近5年 LLM代表了信息演化的一个新阶段 它不是生物,也不是人类符号系统,而是一个全新的东西 这一阶段的特点: • 信息变成了"自主处理的" • 信息系统开始能产生新的信息(不仅是复制或变换) • 信息系统能与人类交互,改变人类的思考
#LLM
#信息演化
#自主处理
#人机交互
#新阶段
分享
评论 0
0
YL (Yucheng Liu)
1个月前
🎨 我们常说产品和设计需要“品味”(taste),但这和写代码一样,是个玄学。我发现一个痛点:很多人不知道如何向 AI 描述自己的设计品味,提不出正确的问题。 未来会不会有专门的课程,教我们如何与 AI “聊”设计,把抽象的品味转化成可执行的指令?
#AI设计
#设计品味
#人机交互
#设计教育
#未来趋势
分享
评论 0
0
NanYi
1个月前
我司有位同事在群里和我讨论AI时,总是把我的话copy给AI,让AI反驳我,然后直接copy到群里,让我感到非常无趣。为什么我会知道是AI?谁家在IM里聊天写几百字的markdown🫤
#AI辩论
#同事矛盾
#职场沟通
#人机交互
#负面情绪
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
𝕀Rℙ² 交互范式编程: 如何系统化地设计输⼊,以最⼤化ICL效率? > 这不是”写更好的提示词”(技巧层⾯),⽽是重新定义⼈机交互的本体论(范式层⾯)
#交互范式编程
#ICL效率
#人机交互
#提示词技巧
#系统化设计
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
𝕀Rℙ² 交互范式编程九大支柱: 1.Code: Context as Code (上下文即代码) 2.Instruction: Examples as Instructions (范例即指令) 3.Control Flow: Meta-prompts as Control Flow(元提示即流控) 4.State: State as a Mutable Resource (状态即易变资源) 5.Integration:Composability as System Integration (组合性即系统集成) 6.Compilation:Interaction as a Compilation/Refinement Cycle(交互即编译/精炼循环) 7.Execution: Validation as Execution (验证即执行) 8.Error Handling:Ambiguity as a Computable Feature (歧义即可计算特征) 9.Runtime: The Human as the Interpreter (人即解释器) 这个九点框架,我认为已经相当完备地描述了一种全新的、以人机交互为核心的软件开发和执行模式。它不仅是一种“编程”范式,更是一种“认知协同”的范式。
#人机交互
#交互范式编程
#认知协同
#软件开发
#编程范式
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
怎么说呢,和sonnet 4.5聊天,有点像每一步都是alphago的37 move!
#sonnet
#AlphaGo
#人机交互
#科技
#围棋
分享
评论 0
0
Frank Wang 玉伯
1个月前
AI 应用最有竞争壁垒的,可能就是人机交互。 好的人机交互,需要充分理解模型的能力边界,同时也需要充分理解人的交互感知,这两者都做到极致,才能产生 aha moment。 比如:ChatGPT 通过对话形态让人与模型能交谈,DeepSeek 通过展示思考过程让人感知到 AI 的推理能力,Manus 通过展示工具调用让人惊叹 AI 真能帮人干活。 这些例子里,交互界面都至关重要。 近几个月让人眼前一亮的,是 Lovart,通过无边画布的形态,让人看到了一种新的交互界面。结合图片、视频等模型,让上下文、生成、修改编辑等过程非常流畅。 Chatbot 的交互形态,大概率最终还会是模型厂商或现有大厂的机会。 Canvas 的交互形态,Lovart、Canva、Figma 等,都在快速演进。或许还有创业者的机会,只要足够垂类。 Agent 不是一种单独的人机交互形态,Chatbot 和 Canvas 都可以无缝加入 Agent 能力。 还有一个巨大的交互形态,是 Voice + 硬件。有一个很值得学习的玩家是 Plaud。一个便携式硬件,非常有机会获得用户的很多线下上下文。这些线下上下文提供给 AI 后,有机会让 AI 生成真正 Only for you 的内容。 或许都有新的内容平台的机会。门户 - 搜索 - 推荐,接下来是什么。有可能是基于用户线上和线下上下文的真个性化内容(Content for one)。于是门户 - 搜索 - 推荐 - 生成,路线清晰了起来。 AI 应用创业,都还在很早期很早期阶段。基础模型能力 + 人机交互界面 + 用户上下文感知,会是产品成败最关键的三个基础要素。
#人机交互
#AI应用
#交互界面
#用户上下文
#内容生成
分享
评论 0
0
Fu Sheng
1个月前
AI从“被动应答”到“主动关怀”,确实是个拐点。
#AI
#主动关怀
#技术拐点
#人机交互
#积极
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
LLM是什么搞清楚了,只是搞清楚如何与LLM交互的起点
#LLM
#人机交互
#技术
#探索
#入门
分享
评论 0
0
环球网-环球时报
1个月前
印媒:当人工智能更会写情书
在过去,这样的故事层出不穷。当不知道如何回复心仪对象的消息时,我们可能会寻求好友的帮助。然而,这个 角色今天正在被AI取代。
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 144 条信息
#AI
#人机交互
#社交
#技术
#替代
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
agentic digital interface由原来的人与软件二元的 UI体验,在LLM时代发生了本质的变化,成为了人、agent和软件的三元结构。 这是所有LLM的交互创新的源头。
#agentic digital interface
#LLM
#人机交互
#三元结构
#技术创新
分享
评论 0
0
indigo
1个月前
Anthropic 经济指数报告第三次迭代!研究追踪了过去 8 个月里,个人用户在 Claude 上的行为变化。AI 的任务正在从常规商业到知识密集型工作转变,虽然编程(计算机与数学任务)仍然以 36% 的份额占据主导地位,但知识密集型领域的使用正在快速增长。 - 教育指导任务:使用份额从9.3% 飙升至 12.4%。 - 生命、物理和社会科学任务:从 6.3% 增长至 7.2% 。 - 商业与金融运营任务:份额从 6% 下降至 3% 。 报告将人机交互分为两大类: - 增强(Augmentation):把 AI 当作一个聪明的实习生或合作伙伴。你会和它一起讨论、迭代任务、向它学习或让它帮你检查工作。这是协作关系; - 自动化(Automation):把 AI 当作一个高效的工具或员工。你直接下达一个完整的指令,让它独立完成任务,中间几乎没有来回沟通。这是委托关系。 用户的行为正在快速滑向“自动化”。这是报告发布以来,自动化使用首次超过增强使用。 - 指令式(Directive)对话,即用户将完整任务委托给 Claude,其占比从8个月前的 27%猛增到 39%; - 整体上,自动化模式的使用份额从 41.1% 上升至 47.0%,而增强模式则从 55.5%下降至49.1% 。 报告认为,这种转变可能源于模型能力的提升和用户信任的增强 —— AI变得越来越可靠,用户也越来越习惯于“放手” 👀
#Anthropic
#Claude
#AI自动化
#人机交互
#AI能力提升
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞