阿里Wan2.7-Image模型发布:支持超长文本渲染,可捏出“活人感”
来源:互联网
时间:2026-04-01 16:33:51
4月1日下午消息,阿里巴巴发布图像生成与编辑统一模型Wan2.7-Image,宣布针对当前AI生图领域“标准脸”审美疲劳和“色彩盲盒”等痛点,进一步实现“千人千面”捏出“活人感”,更可精准控制色彩。
据悉,Wan2.7-Image具备文生图、图生组图、图像指令编辑和交互式编辑等全链路能力。在人类偏好盲测中,“文生图”能力超过GPT-Image1.5和国内主流模型,在文本渲染、照片级成像和世界知识指标上,接近Nano Banana Pro。
为告别千篇一律的“AI脸”,Wan2.7-Image强化了虚拟形象捏脸功能,支持从骨相、眼眸到五官细微处的全方位定制,比如更换提示词中的脸型(鹅蛋脸、圆脸、方脸、长方脸等)、眼部特征(杏仁眼、深邃眼窝、圆眼、丹凤眼等),实现“千人千面”。
在设计过程中,艺术家和设计师需精准控制颜色,商业海报对配色还有严格要求,但AI生图往往是“色彩盲盒”,而Wan2.7-Image全新支持的“调色盘”功能,可让用户通过HexCode,一键提取或输入参考图的各种颜色和占比,从马蒂斯浓郁的红色系、梵高明媚的黄色系,到毕加索清冷的蓝色系,都能参考生成同色系的图片,并可自由调控颜色的数量和占比,自定义配色方案。
针对超长文字渲染容易文字模糊、内容错乱甚至直接漏写等的AI生图痛点,Wan2.7-Image凭借长上下文文本编码(Long Context Text Encoder)解析超长序列,对超长文字、表格和复杂公式的渲染可达印刷级,支持12种语言,最高3K tokens的超长文字输入,可输出一页A4纸的论文。(文猛)