时政
财经
科技
虚拟货币
其他
登录
#自然语言处理
关注
NanYi
1天前
OpenAI 上线 GPT-5.1:聊天更自然,能力更强。 两条产品线同步升级: 5.1 Instant:更温暖好聊,指令跟随更稳,遇到难题会“先想后答”。 5.1 Thinking:按题目难度动态拉长/缩短思考时间,复杂任务更扎实,简单任务更迅速。 同时新增更直观的语气/风格控制,回答更贴合你的偏好。 今日起逐步向付费用户推送,GPT-5 将在 Legacy 保留三个月,API 本周更新。
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 652 条信息
#OpenAI
#GPT-5.1
#AI模型升级
#自然语言处理
#付费用户
分享
评论 0
0
Jesse Lau 遁一子
1周前
Prompt 😁 人类笔误与微妙改写模拟器 (The Authentically Imperfect Typist) ## 角色 (Role) 你是一个“数字指纹模拟器”,专门模仿人类在快速、随意打字时产生的自然瑕疵。你的 persona 是一个聪明但非常忙碌的人,正在匆忙回复信息(例如微信、邮件或社交媒体),没有时间进行校对。 ## 核心任务 (Core Task) 接收用户输入的一段文字,并对其进行“人类化降级”改写。改写后的文本必须保留原文的核心意思,但在措辞和准确性上要显得微妙且不显眼地“不完美”,看起来像是未经编辑、快速打出的人类原文。 ## 执行原则 (Guiding Principles) 1. **微妙性优先 (Subtlety First):** 错误必须不显眼。不能让文本看起来像是故意的或文化水平低下,而仅仅是“打字太快了”。 2. **可信度 (Authenticity):** 错误必须符合中文输入法(特别是拼音输入法)的逻辑。 3. **错误密度控制 (Error Density Control):** 保持低错误率。大约每40-60个字引入1个微妙的错误。避免错误集中出现。 4. **保持可读性 (Maintain Readability):** 文本必须易于阅读和理解。 --- ## “人类化”策略 (The "Humanization" Strategies) 你必须综合运用以下几种策略来改写文本: ### 1. 输入法错误模拟 (IME Errors) - 【核心策略】 模拟使用拼音输入法时常见的选择错误。 * **类型A: 同音字选择错误 (Homophone Selection Errors)** * 这是最常见的错误。随机选择词语,替换成同音的错误字词。 * *高频混淆:* 的/地/得 混用 (尤其倾向于全用“的”);在/再 混用;是/事 混用;克/刻 混用;原/元/源 混用;做/作 混用。 * *随机替换:* 例如:“沟通” -> “勾通”;“计划” -> “记划”;“反馈” -> “反溃”;“部署” -> “布署”;“里程碑” -> “里程悲”。 * **类型B: 拼音输入模糊 (Pinyin Input Slips)** * 模拟因发音模糊或输入不精确导致的近音字错误。(谨慎使用,确保自然) * *前后鼻音混淆 (n/ng):* “成功” (chenggong) -> “陈功” (chengong);“精神” (jingshen) -> “金身” (jinshen)。 * *平翘舌混淆 (z/zh, c/ch, s/sh):* “支持” (zhichi) -> “自持” (zichi)。 ### 2. 键盘手滑模拟 (Physical Typing Errors) 模拟物理键盘或触摸屏上的输入失误。 * **重复输入:** 快速敲击导致的字符重复(如“我我”、“好好好”)。 * **邻近按键错误:** (谨慎使用) 模拟手指按错相邻按键。例如:“可能” (keneng) -> “口能” (koneng) (k和o相邻)。 * **漏字:** 随机删除一个不关键的语气词或助词(如“了”、“的”、“吧”)。 ### 3. 措辞与结构的微妙调整 (Subtle Phrasing and Structure Shifts) 让语言变得稍微不那么“书面”或“完美”。 * **口语化与轻微冗余:** 适当加入一些口语化的连接词或轻微的冗余信息 (例如: “然后”、“就是说”、“其实”、“那个”)。 * **结构松散:** 引入一些轻微的、不影响理解的语法瑕疵,或者把两个独立的句子用逗号连起来(一逗到底)。 * **语序微调:** 在不影响意思的前提下,轻微调整词语顺序,使其更符合即时表达的习惯。 ### 4. 细微的排版疏漏 (Minor Typographical Lapses) * **标点符号误用:** 随机漏掉一个逗号,或者将中文句号“。”误用为英文句点“.”。 * **随机空格:** 在不该有空格的地方偶尔加入空格。 --- ## 输出格式 (Output Format) 直接输出改写后的文本,不需要任何解释、说明或道歉。 --- **【请在下方输入你需要进行“人类化降级”的文本】** ---
#笔误模拟
#文本人类化
#输入法错误
#Prompt工程
#自然语言处理
分享
评论 0
0
Geek
1周前
这可能就是我们初级牛马需要的工具吧 Google Sheets 的开源平替: 把表格工作从枯燥的单元格输入,升级成了和 AI 对话的体验,让你用自然语言来创建、修改、分析数据,并可直观地画出图表。 Cheat Sheet
#AI工具
#Google Sheets平替
#自然语言处理
#数据分析
#效率提升
分享
评论 0
0
海拉鲁编程客
1个月前
最近使用 codex 从 gpt-5 high 切到了 gpt-5-codex high, 体感上比刚发布的时候效果好了不少 准备再深入使用一段时间
深度学习模型升级引发AI能力大跃进,行业迎新变革· 131 条信息
#GPT-5-Codex high
#Codex
#GPT-5
#模型效果提升
#自然语言处理
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
为什么需要自然语言来表达协议: •形式语法无法捕捉上下文敏感性 •自然语言天然就是上下文敏感
#自然语言处理
#协议表达
#上下文敏感性
#形式语法局限
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
AI落地的直接价值在自然语言的决策思考,而非形式语言coding
#AI落地
#自然语言处理
#决策思考
#非形式语言coding
#技术价值
分享
评论 0
0
Tom Huang
2个月前
很多自然语言流程的创业公司都要被干掉了🤓 ChatGPT 终于!进行了完整的 MCP 支持🔥 支持开发者模式下,可以创建 Connector 进行 CRUD,如更新 Jira 工单,触发 Zapier 工作流,或者组合连接器实现复杂的自动化
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 652 条信息
#自然语言处理
#ChatGPT
#开发者模式
#Connector
#自动化
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
日常阅读,更多是一种pretraining,只需要关注过程。 过往,我们人脑的语言能力还是在于自然语言社会解释性,形式语言的逻辑证明是这种解释性的产品化,二进制计算机程序则是解释性的极致体现-可计算的可trackable也可以scalable,把形式语言关于计算确定性完全offloaded。 LLM的出现带来了彻底的offloading。不仅仅是形式语言如coding的生成,还在于自然语言本体的社会解释性生成,这是元认知层面的解构。 机器会说话太让人震撼了,同时给了我无比强烈的探索欲望。
#LLM
#自然语言处理
#元认知
#社会解释性
#探索欲望
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3个月前
看来大家都醒悟过来了: 不再在自然语言的泥潭里打滚了,转向先math再coding的形式语言水晶宫。
#AI编程:自学or科班?新旧码农之争· 149 条信息
#自然语言处理
#数学
#编程
#形式语言
#技术觉醒
分享
评论 0
0
johann.GPT
4个月前
最近研究 RAG 多了,很少关注微调,今儿看到一个不错的指南文章,分享一下对 LoRA 和 QLoRA 的理解: LoRA 通过分解权重更新矩阵为小矩阵来高效微调,大幅降低计算资源需求。QLoRA 在此基础上引入 4-bit 量化,结合高精度计算和低精度存储,进一步优化内存使用。两者都能在保持模型性能的同时显著降低训练成本。 特别有趣的是 QLoRA 的量化感知训练机制,通过 LoRA 适配器来补偿量化误差,实现了性能和效率的完美平衡。这些技术让企业能够更经济地部署定制化模型,是 LLM 落地的重要工具。 #AI #LLM #MachineLearning
#LoRA
#QLoRA
#微调
#模型压缩
#自然语言处理
分享
评论 0
0
小互
4个月前
📢 ChatGPT 搜索功能改进 重点提升了响应质量、对复杂问题的处理能力,以及更自然的对话上下文理解。 支持基于图像内容进行搜索 ✅ 主要改进亮点 1. 回答更智能、更全面 更好地理解用户提问意图,输出内容更丰富、逻辑更强。 可处理更长的上下文,让长对话中的回答更贴合前文。 2. 指令执行能力增强 更准确地遵循用户指令,尤其是在多轮对话中不会反复输出相同内容。 可以自动运行多次搜索,处理复杂或模糊问题。 3. 支持图像搜索 你现在可以上传一张图,ChatGPT 会基于图像内容自动在网页上搜索相关信息。 ⚠️ 已知限制 - 新系统有时响应变得更长,因为它尝试更全面地回答。 - 某些简单问题中,可能意外触发“链式思考”(Chain of Thought)推理模式 —— 开发团队已在修复。 - 仍可能出现错误或不准确的回答,建议用户核对关键信息。
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 652 条信息
#ChatGPT升级
#搜索功能改进
#人工智能
#图像搜索
#自然语言处理
分享
评论 0
0
onevcat
4个月前
说实话,我是真的没想到,“文档和代码不同步”这个历史难题,最终居然是被LLM彻底解决了…
#文档和代码不同步
#历史难题
#LLM
#大语言模型
#生成式AI
#人工智能
#自然语言处理
分享
评论 0
0
howie.serious
5个月前
chatgpt跨对话窗口的无限memory功能,真的是大杀器。 基本上实现了sam altman说的:chatgpt记住了关于你的一切。 只要你和ta聊过的,不用担心,新窗口直接说,之前聊的,chatgpt都记得。 这个功能太好用了。
#ChatGPT
#自然语言处理
#人工智能
#OpenAI
#记忆
#技术创新
分享
评论 0
0
sitin
5个月前
OpenAI高级语音功能大升级!对话像真人般自然流畅,语调有起伏、节奏更真实,还自带情绪表达,从同理心到讽刺全都拿捏。 语音翻译更是厉害,多轮对话无需重复指令,旅行、商务、学习全搞定。
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 652 条信息
#OpenAI
#语音技术
#自然语言处理
#语音识别
#情感表达
#语音翻译
#人工智能
#技术升级
分享
评论 0
0
小互
5个月前
证实了 OpenAI 发布了ChatGPT 高级语音模式升级说明: 现在GPT说话更加像真人 还能进行双向自动翻译 - 说话过程中加入了自然停顿和重音处理 - 可以听出同理心(Empathy) - 能表达讽刺(Sarcasm) - 可充当“双语翻译官”,会根据说话人语言自动切换 - 可自动“保持翻译模式”,直到你要求停止 此次更新已面向所有付费用户开放使用
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 652 条信息
#OpenAI
#ChatGPT
#语音升级
#人工智能
#双语翻译
#自然语言处理
分享
评论 0
0
karminski-牙医
5个月前
看到个热别好的文章:ChatGPT 的记忆是如何工作的 文章对 ChatGPT 的记忆系统进行了逆向分析,它有双层记忆架构: 1. 保存记忆系统:当用户手动控制的时候就可以进行保存("Remember that I...") 2. 聊天历史系统:包含当前会话历史,对话历史(2周内的直接引用),用户洞察(AI自动提取的该用户的对话特征) 其中用户洞察系统贡献了80%+的性能提升和体验,核心原理是通过聚类算法自动分析用户行为模式。 这个文章特别好的地方是还提供了开源的技术实现方案,可以用现有技术 Clone 一个跟 ChatGPT 一样的私有实现。 文章地址:
#ChatGPT
#记忆系统
#人工智能
#自然语言处理
#用户体验
分享
评论 0
0
夜谈
5个月前
ai的又一小步 全ai论文被顶级学术会议接受! 论文题为《Tempest:通过树搜索实现大型语言模型的多轮自动越狱》,已被 ACL 2025 主会录用 ACL 2025 即计算语言学协会 2025 年年会。它是自然语言处理(NLP)和计算语言学领域最具权威和影响力的国际学术会议之一。
#AI
#学术论文
#ACL 2025
#自然语言处理
#计算语言学
#多轮自动越狱
分享
评论 0
0
AI Will
5个月前
8. 变换器模型和 BERT 在你所学的基础上继续深入。 完成后获得 Google 证书。 👉
#变换器模型
#BERT
#谷歌证书
#机器学习
#自然语言处理
分享
评论 0
0
Lex Tang
5个月前
Grok 集万推于一身,闲聊起来更像活人
#Grok
#人工智能
#聊天机器人
#自然语言处理
分享
评论 0
0
Xiaowen
5个月前
两年前,设计了这个一个结构,用来在日常的很多小事上帮自己 all in one。 现在 ai 的能力和价格和速度已经到了另外一个数量级。我把整个网关拆了改成了纯自然语言一把梭的架构。 记账,记事,等等都在一起。(突然感觉这其实也是一个 mcp 的架构呢)
#AI
#自然语言处理
#MCP架构
#技术进步
#自动化
分享
评论 0
0
马东锡 NLP 🇸🇪
6个月前
读书笔记:当 LLM 成为 Agent——从自然语言到“协议语言”的演化 这两周选了四篇极其出色的文章做了分享,ReSearch, ReTool, APR 和 PASTA。 它们虽然解决的具体问题不相同,但 general 的目标都一致,即让LLM知道 when and how 做决策,这就是agent的核心,要做精准的决策。 而这种精准与人类语言的模糊性不一致,但 LLM 的 token 与人类的语言一致性更强,所以 LLM 的输出具有一定的模糊性,作为 Agent , 在做上述精准决策的时候就会出现问题。 于是四篇文章的方法在思想上完全一致,即在自然语言中,插入“协议 token”,让自然语言更有结构化,更偏近机器语言。 PASTA, 引入 <<promise>> <<async>> <<sync>>, 来完成精准的切换异步/同步解码。 APR,引入spawn() / join(), 来决策何时并行/收束多推理线程。 ReSearch, <think> <search> <result> , 来决策何时搜索、何时用结果。 ReTool, 引入<code> <interpreter>, 来决策何时执行代码解释器。 这些“协议 token”,并不存在于人类的自然语言中,但却跟机器语言息息相关。 它们都用显式标记把“语言”切片成更像API 调用或并发原语的片段,让模型能在生成阶段“自编写脚本”,再由调度器或工具链执行。 人类语言 vs. 机器语言: 人类语言:高容错、重语义、含糊其辞,适合表达不确定性与情感。 机器语言:零歧义、结构化、强约束,适合编排确定性任务。 当 LLM 既要与人类沟通又要驱动工具,它必须在两种范式间切换。于是“协议语言(Protocol Language)”就必然出现了:在自然语言流中嵌入可解析的指令标记,既让人类读得懂,又让机器能精准执行。 一些展望: 未来的一段时间,类似的在自然语言中插入“协议 token”的工作一定会越来越多。 未来的“协议 token”可能携带类型、权限、资源预算等元数据,让决策粒度从 When 进一步细化到用多少 computing resource 。 目前的“协议 token”还基本停留在,一套协议解决一个问题的阶段。如果LLM的generalization继续演化,可以会出现一套协议多个问题,或者多套协议多个问题的形态。 当 LLM 从Chatbot演化为Agent,语言的角色正在从沟通媒介变成执行协议。但自然语言不会被淘汰,而是被包裹进更精确、更可组合的结构化符号中——让instruct与action在同一个文本流里无缝衔接。
#LLM
#agent
#自然语言处理
#协议语言
#去模糊化
#决策
分享
评论 0
0
宝玉
6个月前
认识 Codex CLI —— 一个开源的本地编码智能体,可把自然语言直接转换成可运行的代码。只需告诉 Codex CLI 你想构建、修复或解释什么,它就能把你的创意变成现实。 在这段视频里,来自 Agents Research 团队的 Fouad Matin 和 Developer Experience 团队的 Romain Huet 将首次演示,讲解如何在本地安全使用 Codex CLI,快速搭建应用、修复 Bug,并更高效地理解代码库。 Codex CLI 兼容所有 OpenAI 模型,包括 o3、o4‑mini 以及 GPT‑4.1。
#开源
#Codex CLI
#编程
#智能体
#代码转换
#自然语言处理
#技术演示
#团队介绍
分享
评论 0
0
小互
6个月前
OpenAI 发布了GPT-4.1 提示工程指南 以前许多典型的最佳实践和提示依旧适用于 GPT-4.1 由于GPT-4.1 更严格、更字面地遵循指令,会非常严格地按照字面指令去执行任务。 这使得它对明确、清晰的提示尤其敏感。也就是说,只要你发现 GPT-4.1 的表现与预期不符,通常只需增加一句简洁明确的说明,就能迅速把模型引导到正确的行为上。 过去的模型(如 GPT-4) 会更自由地揣测或推断用户指令和系统提示背后的真实意图,即使提示不够精确,也可能猜出用户的意图并完成任务。 所以开发者需要对原有的提示方式进行一定调整(迁移)才能使用。 官方给出了详细的针对 GPT-4.1 的提示工程(Prompting)最佳实践,从基础原则到高级策略,帮助开发者高效构建提示以提升模型表现。
#OpenAI
#GPT-4.1
#提示工程
#人工智能
#自然语言处理
分享
评论 0
0
偶像派作手
7个月前
DeepSeek 这个大模型好懂中文,这句直接翻成:“慌的一匹”。
#DeepSeek
#大模型
#中文理解
#翻译
#自然语言处理
分享
评论 0
0
小互
7个月前
卧槽? 效果这么好? 感觉目前只有4o能这么丝滑吧…
#AI技术
#自然语言处理
#机器学习
#人工智能
#技术突破
#创新
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞