當前位置: 妍妍網 > 碼農

我願稱它為最強AI魔法棒,圖片局部重繪再次升級,你的幻想它都能幫你實作

2024-06-20碼農

每天都會看很多的開源計畫

這個計畫可能是近期看到最驚艷的一個了 ,讓我迫不及待地想去分享給大家

你很難想象自己換發型、換發色會變成什麽樣子,也很難想象一個沙發形狀的蛋糕會是什麽樣,這個最新的開源計畫 MimicBrush 將會滿足你所有的幻想

倒不是說局部重繪有多麽新穎,畢竟大家用的AI繪圖軟體都有這個功能,Mijourney、Stable Diffusion、Dalle3這些都可以,不過重繪也是用AI把這部份重新創造,抽卡把人都抽麻了還得不到自己想要的樣子

而 MimicBrush 讓AI真正的懂了你要重繪的內容 ,讓圖片真的變成你想要的樣子

掃碼加入AI交流群

獲得更多技術支持和交流

(請註明自己的職業)

直接切入主題

我們先來看一段官方的演示視訊

是不是感覺很神奇, 我們腦海裏所有的天馬行空,居然都可以變成可以看得到的影像

最近各地天氣挺熱,恰好我這幾天想買個草帽戴著遮陽,實在是不知道戴上什麽樣,不如就直接用 MimicBrush 實際戴上看看

實際體驗下來還挺有趣的, 試用連結 在下面,你們也可以直接去玩一下

https://huggingface.co/spaces/xichenhku/MimicBrush

這就會有很多 商用場景

比如,發型設計師提前讓顧客看到自己染發後的樣子,賣項鏈的商家可以讓顧客先戴上看看,都可以讓顧客的體驗感更好

這個功能完全可以做成一個軟體,給很多行業的商家都解決了使用者預體驗的問題

下面講點這個開源計畫 專業一些的內容

計畫簡介

MimicBrush 是一個用於零樣本影像編輯的工具,透過參考影像實作高效的影像編輯。

它采用雙 U-Nets 模型,結合穩定擴散和深度模型技術,使使用者能夠對上傳的源影像進行指定區域的編輯,並透過參考影像模仿實作自然過渡。MimicBrush 的核心基於 IP-Adapter 和 MagicAnimate 計畫,提供了靈活的編輯體驗。

方法

MimicBrush的 主要結構包括模仿U-Net、參考U-Net和深度模型:

·模仿U-Net: 基於SD-1.5填充模型,接收13通道的輸入,包括影像潛變量、二進制掩碼、背景潛變量和深度潛變量

·參考U-Net: 從SD-1.5模型初始化,提取參考影像的多級特征,輔助模仿U-Net進行區域填充

·深度模型: 使用Depth Anything預測未掩蓋源影像的深度圖,並透過訓練投影器將其投影到深度潛變量中,作為形狀控制

具體的部署,可以到github連結readme部份去看下,這麽好用的功能,希望可以早點讓更多普通使用者能體驗

計畫連結

https://github.com/ali-vilab/MimicBrush

關註「 開源AI計畫落地 」公眾號

與AI時代更靠近一點

關註「 AGI光年 」公眾號

獲取每日最新資訊