2025年12月8日,智谱AI没有预告,直接甩出了一张王炸:GLM-4.6V系列多模态大模型正式上线并全量开源。 如果你还在关注那些只会“看图说话”的模型,那这次你可能要刷新一下认知了。智谱这次的更新,不是简单的参数堆叠,而是试图解决多模态领域一个最尴尬的痛点——大模型不仅要有眼睛,还得有手。 从“解说员”进化为“操作员” 过去我们用视觉模型(VLM),流程通常是这样的:扔一张图给模型,问它“这是什么”,模型回答“这是一个网页报错”。然后呢?然后就没有然后了。你得自己去写代码修复。 GLM-4.6V的核心突破在于“…
