马东锡 NLP

马东锡 NLP

0 关注者

2个月前

读了 Gemini 3 的 model card,会发现 Gemini 3 明确不是 Gemini 2.5 的微调,它是全新训练的 sparse MoE 。 也就是说,在 Gemini 2.5 已经非常出色的 RL 后训练和 parallel thinking 基础上,崭新的 backbone 让 Gemini 3 非常出色,总结这半年 Gemini 的工作: 1. 出色的 RL 后训练 2.

#Gemini 3 #全新训练 #sparse MoE #RL后训练 #parallel thinking

相关新闻

placeholder

meng shao

1个月前

基于 Gemini 3 重新优化了「信息卡」提示词,效果如图,我自己还是比较满意 😄 随着 Gemini 3 和 Claude Opus 4.5 的发布,确实感受到了更强的模型前端审美和设计品味,提示词也可以更精简以方向和原则要求、场景用途描述为主了。 下面这张图是用 Gemini 3 生成的,为什么没用 Claude Opus 4.5?主要感觉是它比较容易有自己的想法,生成的稳定性不太够,不

placeholder

0xTodd

1个月前

Gemini 3 建议闭眼买 这 30 新币每个月花得我太值了 而且 Nano Banana 2 现在可以无视(很多)版权强行出图,且用且珍惜 不想拉踩,但是此刻的它,确实比另外两位 G 指导更加权威

placeholder

sitin

1个月前

Google 福利!可以免费使用30天 Gemini 3 和 Nano Banana Pro Gemini Business,现在可以免费试用30天 地址: 选择商务版 输入邮箱登录即可 Gemini 3、Nano Banana Pro、 Veo 3 和 深度研究都免费用,速去。

placeholder

Meathill

1个月前

费了半天力气改好的类型,又被 Gemini 3 给我改成 any 了……

placeholder

luolink

2个月前

测出来一个有意思的事情,有一个网站seo的收录有问题,同时问了Claude,和codex,一直找不到症结,最后被Gemini 3 挖出来了,好像Google自己的产品更了解seo~

© 2025 news.news. All rights reserved. 0.03029 秒. v1.0.46
我的评论