墨风如雪博客

  • 源码小店
  • 传家宝VPS
让AI使用变得如此简单
AI

腾讯CodeBuddy 2.0:从“副驾驶”到“全栈合伙人”的进化

如果说去年的AI编程工具还在比拼谁的补全速度更快、谁猜你的下一行代码更准,那么今年,腾讯云发布的 CodeBuddy Code 2.0 显然想把这场游戏提升到一个新的维度:它不想再只做你的副驾驶(Copilot),它想做你的工程合伙人。 最近科技圈里流传着一组来自腾讯内部的数据,相当耐人寻味。CodeBuddy团队自己用这套工具,在短短58天内完成了79个版本的迭代。而在这些迭代中,90%的新增代码完全由AI生成。这意味着,原本作为辅助角色的AI,已经开始反客为主,承担起了绝大部分的搬砖工作,让4名人类开发者真正回…

2026年 1月 24日 0条评论 220点热度 0人点赞 墨风如雪 阅读全文
AI

97毫秒极致响应!Qwen3-TTS开源,重新定义语音生成的“速度与激情”

2026年的开年大戏,比我们预想的来得更早了一些。 就在1月22日,当大家还在讨论大语言模型的逻辑推理能力时,阿里通义千问团队悄无声息地在语音生成领域扔下了一枚重磅炸弹:Qwen3-TTS系列模型正式开源。 这不仅仅是“又一个”开源模型,这是一次对“实时交互”的暴力美学展示。作为长期关注AI底层技术的观察者,我拿到技术报告的第一眼,就被那个数字击中了——97毫秒。 今天,我们就来聊聊这个让开发者直呼“真香”,让商业闭源模型感到压力的Qwen3-TTS到底强在哪里。 告别进度条:当生成速度快过你的语速 过去两三年,语…

2026年 1月 23日 0条评论 229点热度 0人点赞 墨风如雪 阅读全文
AI

2026开年王炸:文心5.0带着2.4万亿参数和原生全模态来了

就在大家都还在回味2025年AI圈的各种混战时,百度在2026年1月22日的“文心Moment”大会上,直接甩出了一张重磅底牌——文心大模型5.0正式版。 作为一个长期在AI一线摸爬滚打的观察者,这次发布会给我的感觉有些不同。如果说以前大家还在拼谁的发布会PPT做得更漂亮,那么文心5.0的发布,更像是一次秀肌肉的“实弹演习”。 咱们抛开那些晦涩的术语,聊聊这次文心5.0到底强在哪,为什么业内有人说这是国产大模型的一次“成人礼”。 不是简单的“大”,而是“大而精” 首先得说说这个吓人的数字:2.4万亿参数。 放在两年…

2026年 1月 22日 0条评论 289点热度 0人点赞 墨风如雪 阅读全文
AI

谁说参数即正义?10B小钢炮Step3-VL硬刚千亿巨头

在很长一段时间里,AI圈流行着一种近乎迷信的认知:大力出奇迹。想要更强的推理能力?加参数。想要看懂更复杂的图表?加参数。仿佛只要把显卡堆满,模型就能产生神迹。 但就在2026年开年,阶跃星辰(StepFun)甩出的这张王炸——Step3-VL-10B,狠狠地给了“参数至上论”一记耳光。 这就好比在一场重量级拳击赛里,一个轻量级选手不仅抗住了重量级拳王的进攻,还反手把对方KO了。这款仅有100亿参数的模型,在多项核心指标上,硬生生按住了参数量是它10倍甚至20倍的对手。 小身板里的怪兽级性能 咱们先不谈虚的,直接看数…

2026年 1月 21日 0条评论 181点热度 0人点赞 墨风如雪 阅读全文
AI

智谱GLM-4.7-Flash实测:3B的激活量跑出30B的性能,本地部署变天了

就在2026年1月20日,智谱AI不仅甩出了最新的GLM-4.7-Flash,还顺手把“轻量级模型”的天花板给掀了。 作为一个长期在开源社区摸爬滚打,习惯了在显存焦虑和性能妥协之间反复横跳的博主,看到这个参数配置时,我确实愣了一下。 官方这次打出的牌很清晰:300亿(30B)的总参数量,但推理时只激活30亿(3B)。 这句话背后的含金量,可能比那一长串的跑分数据更值得各位开发者和本地部署爱好者关注。今天我们就抛开那些晦涩的论文词汇,聊聊这个模型到底意味着什么,以及它为什么可能是你本地硬盘里下一个常驻嘉宾。 大脑很大…

2026年 1月 20日 0条评论 753点热度 0人点赞 墨风如雪 阅读全文
AI

这才是AI建模该有的样子:混元3D 1.2公测,鼠标秒变雕刻刀

坦白说,在很长一段时间里,AI生成3D模型给我的感觉就像是在“开盲盒”。你输入一张图,AI扔给你一个模型,至于背面是不是乱作一团,或者纹理是不是把光影画死在贴图上,全看运气。对于想拿来做游戏资产或者3D打印的人来说,这种不可控性简直是噩梦。 但就在今天,腾讯混元3D Studio 1.2版本全量开放公测。在仔细研究了这次更新的文档并上手体验后,我感觉到风向变了:AI 3D工具正在从“让大家看个乐子”,转向“真正能干活的生产力”。 这次升级不需要什么邀请码,也没了排队申请的门槛,直接进官网就能用。而最让我兴奋的,是它…

2026年 1月 19日 0条评论 174点热度 0人点赞 墨风如雪 阅读全文
AI

谷歌不装了:TranslateGemma发布,12B参数竟倒反天罡吊打前辈

大家好,我是平时爱折腾模型的某某。 翻译模型这个赛道,这几年其实挺卷的。但大多数时候,我们的认知还停留在“大力出奇迹”的阶段——想要在WMT24++基准测试中,TranslateGemma 12B的翻译质量竟然直接干翻译得信达雅,模型参数就得往死里堆。显卡在燃烧,电表在倒掉了Gemma 3自家的27B基线模型。 这意味着什么?意味着过去你需要一台昂转,最后出来的结果可能也就比谷歌翻译好那么一点点。 但谷歌最近放出的这个TranslateGemma,贵的服务器才能跑出来的翻译质量,现在在一台配置不错的消费级笔记本(比…

2026年 1月 18日 0条评论 161点热度 0人点赞 墨风如雪 阅读全文
AI

8个大脑同时转?美团LongCat开源,让AI学会“三思后行”

2026年刚开年,开源AI社区就迎来了一个重磅玩家。 这次不再是单纯比拼谁的参数更大、谁聊闲天更溜,美团LongCat团队直接把桌子掀了,端上来一盘硬菜:LongCat-Flash-Thinking-2601。这名字听着挺长,其实核心就讲了一件事——让AI学会像人类专家一样,遇到难题先别急着张嘴,停下来,多想几遍。 很多开发者在这个模型发布后惊呼,这可能是目前最接近“系统2”思维(慢思考)的开源尝试。今天咱们就抛开那些晦涩的论文公式,聊聊这个模型到底神在哪儿,以及它为什么敢说自己在复杂任务上超越了Claude-Op…

2026年 1月 17日 0条评论 168点热度 0人点赞 墨风如雪 阅读全文
AI

纯血国产的逆袭:GLM-Image如何用昇腾芯片霸榜Hugging Face

在AI圈子里混久了,大家都有个心照不宣的认知:想训练顶级的SOTA(State of the Art)模型,似乎总绕不开那几张绿色的显卡。 但就在2026年1月14日,这个所谓的“铁律”被撕开了一道口子。 智谱AI联合华为悄无声息地开源了一个新家伙——GLM-Image。仅仅过了24小时,它就直接冲上了全球最大的AI开源社区Hugging Face的Trending榜单首位。这不仅是一次排名的更迭,更像是一场宣誓:即便完全脱离英伟达的硬件生态,全流程跑在国产算力上,我们依然能做出世界级的模型。 今天我们不谈那些晦涩…

2026年 1月 16日 0条评论 200点热度 0人点赞 墨风如雪 阅读全文
AI

语音模型变天!阶跃星辰R1.1开源,96.4%胜率让GPT都沉默

大家好,我是你们的老朋友。今天我们要聊的事情,可能真的标志着AI语音交互的一个分水岭。 长久以来,我们对语音助手的印象大概还停留在“听写员”的阶段。你说话,它转成文字,然后用文字大模型处理,最后再读出答案。这个过程最大的问题是什么?是丢失了灵魂。你语气里的无奈、急促,甚至背景里的环境音,在这个转化过程中统统被过滤掉了。 但就在2026年1月,一家来自上海的创业公司——阶跃星辰(StepFun),用他们的新模型 Step-Audio-R1.1 给整个行业上了一课。 这一战,赢得漂亮 这不是我的一家之言,数据摆在那儿。…

2026年 1月 15日 0条评论 181点热度 0人点赞 墨风如雪 阅读全文
12345…57

墨风如雪

一个热爱生活,热爱分享的程序员

最新 热点 随机
最新 热点 随机
1美元雇佣顶级架构师?MiniMax M2.5要把Agent价格打穿 那个霸榜的Pony Alpha现身了:智谱GLM-5硬刚Claude Opus 纯国产算力硬刚GPT?聊聊刚发布的讯飞星火X2 阿里Qwen-Image-2.0实测:终于有一款能听懂人话、写对汉字的AI了 别再等Sora了,字节Seedance 2.0才是AI视频的“导演时刻” Mistral 掀桌子:40亿参数跑本地,Voxtral 2 把延迟压进了200毫秒
1美元雇佣顶级架构师?MiniMax M2.5要把Agent价格打穿
MiniMax Music 1.5:AI 谱写新篇章,音乐创作告别Demo时代 苹果设备上的“大模型炼丹炉”:mlx-lm-lora,让你的 Mac 变身 AI 工作站! 如何在NameSilo上购买域名:从注册到支付宝和微信支付一步步教你 告别抓耳挠腮!Gemini CLI,让你和你的终端聊上了天 告别机械感!OpenAudio S1让AI声音活起来 Google Cloud Bigtable 分布式的NoSQL数据库
标签聚合
设计模式 AI 教程 算法 开源 java spring 大模型

COPYRIGHT © 2023 墨风如雪博客. ALL RIGHTS RESERVED.

Theme Kratos Made By Seaton Jiang