智東西
作者 ZeR0
編輯 漠影
智東西5月16日報道,今日,騰訊發(fā)布最新混元圖像2.0模型(Hunyuan Image2.0),基于模型架構創(chuàng)新,在行業(yè)內率先實現(xiàn)實時生圖,并具有畫面質感超寫實的特點。該模型于即日起在騰訊混元官方網站上線,并對外開放注冊體驗。
體驗地址:https://hunyuan.tencent.com/
相比前代模型,騰訊混元圖像2.0模型參數(shù)量提升了一個數(shù)量級,得益于超高壓縮倍率的圖像編解碼器以及全新擴散架構,其生圖速度顯著快于行業(yè)領先模型。
在同類商業(yè)產品每張圖推理速度需要5到10秒的情況下,騰訊混元可實現(xiàn)毫秒級響應,支持用戶可以一邊打字或者一邊說話一邊出圖,改變了傳統(tǒng)“抽卡—等待—抽卡”的方式。
其圖像生成質量也提升明顯,通過強化學習等算法以及引入大量人類美學知識對齊,生成的圖像可有效避免AIGC圖像中的”AI味“ ,真實感強、細節(jié)豐富、可用性高。
在圖像生成領域專門測試模型復雜文本指令理解與生成能力的評估基準GenEval(Geneval Bench)上,騰訊混元圖像2.0模型準確率超過95%,遠超其他同類模型。
在發(fā)布直播中,騰訊混元演示了多個不同風格的圖片生成效果,除了速度快以外,生成的圖片在人物特寫、動物特寫、復古攝影等領域都有不錯表現(xiàn),體現(xiàn)出電影級別質感畫面水準。
▲人像攝影風格
▲動物特寫
▲復古攝影
▲動漫風格
▲真實人物風格
騰訊混元圖像2.0模型還發(fā)布了實時繪畫板功能,基于模型的實時生圖能力,用戶在繪制線稿或調整參數(shù)時,預覽區(qū)同步生成上色效果,突破了傳統(tǒng)“繪制-等待-修改”的線性流程,可助力專業(yè)設計師的創(chuàng)作。
實時繪畫板支持多圖融合。用戶上傳多圖后,可將多個草圖疊加至同一畫布自由創(chuàng)作,經過AI 自動協(xié)調透視與光影,按照提示詞內容生成融合圖像,進一步豐富了AI生圖的交互體驗。
▲圖源自創(chuàng)作者一只小娜娜
混元圖像生成2.0模型的發(fā)布,是騰訊混元在多模態(tài)領域的又一里程碑事件。
騰訊混元在圖像、視頻等模態(tài)上持續(xù)投入,在2014年率先推出并開源了業(yè)內首個中文原生的DiT架構文生圖開源模型以及參數(shù)量達130億的騰訊混元視頻生成大模型。
會上,騰訊混元還劇透了即將發(fā)布的原生多模態(tài)圖像生成大模型。新模型在多輪圖像生成、實時交互體驗等方面有突出表現(xiàn)。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.