时政
财经
科技
登录
#模型
关注
Xiaowen
2周前
open router 没有 image generation 模型也挺烦人的……
#open router
#image generation
#模型
#烦
分享
评论 0
0
orange.ai
2周前
把 Veo3 的几个玩法都试了一下 模型是真的好,用 chat 来控制是真的需要想清楚 prompt 才可以 比如 第一个,这是什么小刀。。 第二个,分辨率应该是指定竖屏的 16:9 第三个,台词是有点短,可以更长一点 Gemini 的bug太多了,每次开新窗口都要点两下 Video 按钮,不然会走到生成图片的路径
#Veo3
#模型
#chat控制
#Prompt
#分辨率
#竖屏
#台词
#Gemini
#bug
#Video按钮
#生成图片
分享
评论 0
0
LouisShark
2周前
这个观点是对的 模型越强提示词越重要 想起了 gpt4 时代的奇技淫巧 一把辛酸泪
#模型
#提示词
#GPT4
#AI技术
分享
评论 0
0
蓝点网
3周前
#OpenAI 在印度新德里的活动中暗示可能很快就会推出 o3-Pro 模型并取代 o1-Pro 模型,目前 o1-Pro 仅面向 200 美元 / 月的 #ChatGPT Pro 订阅用户提供。 o3-Pro 模型将把现有的强大的基线推理能力与额外计算相结合,这可以提高模型的思维能力并实现更多功能。 查看全文:
AI编程:Gemini免费用,Claude手机玩· 192 条信息
#OpenAI
#印度
#新德里
#O3-Pro
#模型
#o1-Pro
#ChatGPT Pro
#订阅用户
#基线推理
#思维能力
分享
评论 0
0
Justin3go
1个月前
所以现在有AI自动筛选素材,标记io点的工具或模型了吗,我理解这才是根据素材自动剪辑的关键
#AI
#自动筛选
#标记工具
#模型
#剪辑
分享
评论 0
0
歸藏(guizang.ai)
1个月前
很多朋友说没有 Open AI 的模型,这里跑一下 O3 的第一个案例。 O3 有点偷懒,只生成了一个页面,而且样式也比较简陋,但是整体所有功能都是正常的可以出入库,可以添加商品,一共思考 1 分 45 秒
#OpenAI
#o3
#模型
#页面生成
#功能
分享
评论 0
0
howie.serious
1个月前
#暴论 :别折腾各种不明觉厉的prompt了。 氪一点金,使用最高IQ的模型(例如,不限量的o3+gpt-4.5搭配)比折腾prompt 有效多了。 一个建议:拿200美金测试一下。开一个月pro,以上1000条o3,500条gpt-4.5,保证你下个月再也不想在prompt上浪费时间了。 模型即产品。用最好的模型,就是在ai时代对自己最大的尊重。
#暴论
#Prompt
#模型
#AI时代
#建议
#GPT-4.5
#IQ
#产品
#测试
#浪费时间
#最好的模型
分享
评论 0
0
wwwyesterday
1个月前
以前我评价 Trae 不少次,大多不是正面评价。 UI 里过于明显的“借鉴”, 加上同样的模型下表现都比别人差太多,很难让我不非议。 但到今天,我可以说,基本合格,而且士别三日当刮目相看了。 工程上明显优化不少,加上模型能力提升(我用 gemini pro),可以干不少项目了。 改善空间还很大,但—基本 OK 了。 隔壁的 jetbrains,我已经基本失去耐心了。再见。
#Trae
#UI
#表现
#模型
#优化
#工程
#能力
#JetBrains
分享
评论 0
0
向阳乔木
1个月前
近几天,经常有群友问是否用过n8n 只听说很强大,还真没用过... 可理解为更灵活强大,且开源的Coze、Dify? 刚本地安装,跑通了添加模型,并对话。 先说说安装: 1. 很早前装过一个据说更轻量级的Docker程序OrbStack 下载 https://orbstack(.)dev/ 去掉() 2. 本地终端运行Docker命令 docker run -it --rm --name n8n -p 5678:5678 -v n8n_data:/home/node/.n8n n8nio/n8n 保持魔法,网络通畅,几分钟就能装好。 3. 本地访问地址 http://localhost:5678/ 虽然本地开源部署,但第一次打开要注册,填写邮箱、名字等信息,等很久,一度以为程序Bug,最后注册成功。
#n8n
#OrbStack
#Docker
#模型
#开源
#安装
分享
评论 0
0
兔子
1个月前
有群友分享了一个逆天的AI绘画,这是哪个模型呀? 我想去复现试下
#AI绘画
#模型
#复现
分享
评论 0
0
头条热点
2个月前
AI!这太疯狂了。 韩国人推出的新模型! 该人工智能可以直接从文本生成完整的对话(声音、笑声、咳嗽声等等)
#AI
#韩国
#模型
#人工智能
#对话生成
分享
评论 0
0
马东锡 NLP 🇸🇪
2个月前
「LLM, Reasoning」论文: (How) Do reasoning models reason? “真正的智能,是让模型在生成时就做出正确选择,而不是事后去验证哪个选项是对的。” 作者Subbarao Kambhampati,我不完全同意他,但我很喜欢他。2024年ACL Keynote,他批评当前对 Chain of Thought 的信仰如同宗教。——我们喜欢看到推理的样子,但并未真正验证推理的实质。 这篇论文,简直就是把当前 LLM 推理潮流一锅端,按住OpenAI o1 和 DeepSeek R1 提出了两个灵魂拷问: 1: Large Reasoning Model 是在推理还是在检索? 作者认为,LRM 并非真正“推理”,它们的行为更像经过训练强化的“近似检索”系统。 所谓“推理”,往往只是模型通过被筛选过的训练样本“生成看起来像推理的输出”。 如果模型生成的候选解中压根就没有一个是对的,也就无法进行强化训练。 这意味着 LRM 的“推理”质量依赖于它是否能撞上一个正确答案。 2: Chain of Thought 是否跟“思考相关”? 作者认为,CoT,(如step-by-step 的文字、公式、甚至“wait...”、“aha moment”这类表述)并不能证明模型真的在“思考”,它们很可能只是模仿人类风格的产物——大型模仿模型(Large Mumbling Models, LMMs)。😂 例如,CoT可以胡说八道但仍“撞对”答案, 模型通过 RL 训练输出的CoT只要能让最终答案更准确,哪怕是乱码也无所吊谓。 最后,此片论文同样是对test time scaling的犀利审视,test time scaling本质是把原本在“测试时”才能验证的东西,提前“编译”进了模型的生成过程中。 换句话说,模型不是学会了推理,而是学会了如何在多次尝试中更容易猜对答案。这跟真正的智能背道而驰。 按照作者的思路,当下post training的套路如下: - 测试阶段:拼命尝试多个答案 - 筛选阶段:用外部验证器选出对的那个 - 训练阶段:把这套套路“硬塞回生成器”,形成“像在思考的样子” 所以它不是真的学会了推理,而是学会了:如何让自己看起来像在推理,并增加猜中率。 Intelligence is the ability to shift the test part of generate-and-test into the generate part. inspriing!
#LLM
#reasoning
#智能
#模型
#Subbarao Kambhampati
#ACL
#Chain of Thought
分享
评论 0
0
StLi
3个月前
实际应用中,发现AI的大多数初期使用者,真的是一个模型用到地老天荒,而且是默认第一个是什么就一直是它了。 逐步掌握利用不同的模型在一个(或者多个)上下文中协同工作,是利用AI完成复杂任务的良好开始,这个往往比写出高质量的提示词更重要。 比如,初期的思路整理阶段,使用4o mini、claude 3.5、gemini lite就足够了,在时间和成本方面特别友好。当需要深入的时候,不妨将工作拆解成几个子任务,分别使用不同的模型加以处理,比如生成图片部分,完全就可以只使用mini类来加载,基本不会影响出图效果。对于较为复杂的任务,比如需要严格事实验证的、带有算法的编码,就可以考虑使用o1 pro、geimini 2.5、claude 3.7这一类推理模型。 如果需要编写较为复杂的文档,可以试试以下步骤: 1. 如果对主题要求很高,可以一上来就用o1 pro这类高级推理模型协助拟定备选主题,比如中心思想、写作风格、段落划分等。 2. 用4o等模型为文章提炼大纲,如果需要模型生成较长篇幅的文章,细化大纲是一个很有用的手段,可以逐级细化,实际中基本上大纲越细,可以产生的篇幅越长。 3. 继续使用中级模型生成正文,写作类内容,推理模型似乎没有明显的优势,4.5、4o、sonnet3.5、gemini 2足够了。 4. 文笔类的润色,可以考虑mini类的模型,速度很快,在已有原文的基础上,mini类模型也可以准确定位需要修改的内容。 5. 最后可以让模型将文章转化为特定的格式,比如html,原始格式不是很友好。现在有了强大的生图能力,也可以考虑直接转化为图片。 可以试试每一步都用最简洁的提示词,哪怕先写一个复杂的,在花点儿时间精简提示词。要点明确又富有弹性的提示词,不仅可以节省时间,也可以在最低消耗的情况下获取直接的反馈。 如果有一天,真的要2万美金一个月才能使用某些模型的时候,善于利用不同模型,编写高效简洁的提示词,真的就是必备技能。
#AI
#模型
#复杂任务
#初期使用者
#提示词优化
#gemini lite
#成本
#时间
#collaboration
#Claude 3.5
分享
评论 0
0
orange.ai
3个月前
投资人:你们准备做点什么事情以避免被模型吃掉吗? 我:最终一切都会被吃掉的,就像我们最终都会死亡。我们本质上都是在做加速 AGI 的事情,并从时间差和信息差里获得一点收益。
#投资人
#模型
#AGI
#死亡
#信息差
分享
评论 0
0
九原客
3个月前
目前我日常使用的模型(非广告~) (日常用): - (Grok3 真的很好) - (Qwen2.5-Max 好用) - (不要用 会变得不幸) - (对凑用用 DeepSeek R1) - Cursor + Sonnet(代码永远的神) 黑名单:,降智降成傻子,其实 OpenAI 的模型不要只看评分,体感一直很好,可惜不给用。 (API 用): - (测试各种奇怪的模型,没必要自己部署) - (虽然被背刺,但是embedding之类的模型托管的平台不多) - (只用来跑 DeepSeek R1/V3 批量和在线推理)
#模型
#Grok3
#Qwen2.5-Max
#DeepSeek R1
#Cursor
#sonnet
#OpenAI
分享
评论 0
0
voa-黄丽玲
4个月前
中国AI模型三部曲:出圈、出海、削价内卷?
中国AI模型DeepSeek自1月底在全球“出圈”以来,不仅改变了美中的AI竞争格局,也助长了北京推动AI“出海”的雄心,声称要帮助发展中国家建立AI体系,实现“共享智能红利”。然而,DeepSeek在中国国内掀起的“全民AI”风潮,已加剧企业间的削价竞争,引发内卷风险。尽管美国仍在芯片算力领域保持霸主地位,但全球AI发展或正逐步脱离美中对抗格局,进入“主权AI”时代,即各国加速发展本土AI技术,以降低对外依赖。然而,专家警告,中国AI的低价策略和隐含中共虚假论述的渗透力,将对全球AI市场及信息环境带来长期挑战。
#中国AI
#模型
#出圈
#出海
#削价内卷
分享
评论 0
0
Yachen Liu
4个月前
简单试了下 Grok 3,反应确实非常迅速而且答案可以媲美 DeepsSeek R1 和 o3-mini,火速开了 xAI 账号等待 API 开放。 倒反天罡,现在是模型太多,应用场景不够了😂
#Grok 3
#XAI
#API
#DeepsSeek R1
#o3-mini
#模型
#应用场景
分享
评论 0
0
宝玉
4个月前
画的最清楚的 OpenAI 路线图 这是 LinkedIn 上博主 Peter Gostev 画的图(原始地址 ),很清晰明了。下面是相关文字说明。 逐步统一的 GPT-5 模型 OpenAI 罕见地分享了他们关于统一 GPT-5 模型的路线图。主要要点如下: - GPT-4.5 将在“数周内”推出,这是他们最后一个非推理类模型(类似 GPT-4o)。 - o3 不会作为独立模型发布。 - 取而代之的是,他们将在“数月内”推出 GPT-5,它将融合 o3 和 GPT-4.5。 - GPT-5 将成为一个能够使用所有工具(如语音、搜索、Canvas、深度研究等)的系统——它可以自动决定该使用什么工具以及使用多高程度的推理。 - 这将同时适用于 ChatGPT 和 API。 - 在 ChatGPT 中,免费用户将获得 GPT-5 的无限使用权限。 - Plus 用户将获得更高水平的智能,Pro 用户则会更高。 这真的感觉像是一个时代的终结。我很好奇他们会如何实现这一点。我希望这不会让他们的研发放慢脚步,因为我听 OpenAI 的团队成员说过,他们可以为新特性(比如 Canvas)训练自己版本的模型,然后再把它集成回去。我希望他们能完善系统的“智能路由”部分,因为到目前为止,对于是否自动选择使用哪些工具,系统做出的决策时好时坏。 我对 o3 无法推出感到遗憾,看起来它会是一个非常了不起的模型,尤其是 o3-pro 可能会非常惊艳。 我也有点担心将来 API 的样子。现在从非常便宜到非常昂贵都有各种不同的模型可供选择。我希望他们所计划的无论多么强大,都能保持便宜且快速,同时也能超级智能。
#OpenAI
#GPT-5
#GPT-4.5
#路线图
#模型
#技术发展
分享
评论 0
0
婉清
4个月前
共产党国的教育都是一个模型!
#共产党
#教育
#模型
分享
评论 0
0
勃勃OC
5个月前
o3-mini是专门在代码问题上微调的。r1同时在代码和数学题上微调。这个例子显示,r1的代码能力并不如o3-mini。DeepSeek并没有“魔法”,技术上也未超越OAI。数据决定模型,RL也是。
#AI
#模型
#机器学习
#代码能力
分享
评论 0
0
LT 視界
5个月前
很多人都發現Deeepseek在被問及「你是什麼模型」時回答自己是ChatGPT。
#Deeepseek
#ChatGPT
#人工智能
#模型
分享
评论 0
0
NiKITa🇺🇦 ꑭ
5个月前
戰場豹2A6 坦克的模型
#坦克
#模型
#战场
#豹2A6
分享
评论 0
0
Go
5个月前
Haha, deepseek r1 is using a modified BoN-RL replacing BoN with Group mean advantage was. And Kimi is taking the formulation of BoN it self. Amazing to see those model become life
#文章信息提取
#人工智能
#深度学习
#机器学习
#BoN-RL
#Group mean
#模型
#技术讨论
分享
评论 0
0
karminski-牙医
5个月前
kotoro-TTS 荣登 TTS Arena 排行榜第一名,录了个视频大家可以看下它中文的语音合成效果。 值得一提的是,这个模型只有 82M,树莓派都能跑。而且是 MIT 协议的。 排行榜地址: 在线测试地址:
#kotoro-TTS
#TTS Arena
#语音合成
#中文
#模型
#树莓派
#MIT 协议
分享
评论 0
0
宝玉
5个月前
问:模型支持的TOKEN数量是模型本身的限制还是调用模型的程序限制的呢? 答:模型会有上下文窗口长度限制,AI聊天应用也会有会话长度限制。 举例来说你的模型最大上下文窗口长度限制是 128K,但是通常应用程序不会让你输入的内容到128K,可能输入内容最多16K就不让你输入了,因为这个上下文窗口长度是针对输入和输出加起来的长度,所以要留一些空间给输出。 另外输入内容越长,模型生成的质量会下降,成本也会增加很多,所以应用要限制最大输入的长度。
#模型
#TOKEN数量
#限制
#上下文窗口
#AI聊天应用
#会话长度
#输入内容
#生成质量
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞