免費優惠犬

無限長影片生成神器!InfiniteTalk 終於免費開源啦

無限長影片生成神器!InfiniteTalk 終於免費開源啦

你有沒有想過,有一天影片不再被時間限制,想多長就多長?而且還能跟著聲音自然動嘴巴、做表情,甚至連頭部和肢體的小細節都保持一致。聽起來有點像科幻電影吧?最近我就發現一個超猛的開源專案——InfiniteTalk,真的把這件事變成現實了!

InfiniteTalk 是一個由 MeiGen-AI 推出的音頻驅動影片生成模型,支援從圖片或影片加上聲音輸入,就能生成「無限長」的影片,保持穩定性和人物一致性。完整的程式碼和模型已經在 GitHub 上公開,還能搭配 Hugging Face 和 ComfyUI 使用,網址在這裡 👉 https://github.com/MeiGen-AI/InfiniteTalk

我第一次聽到 InfiniteTalk 的時候,腦袋裡直接冒出一句:「哇,這以後要多少網紅被取代啊!」但認真想一想,這東西對創作者其實是救星,尤其是那種常常需要大量影片素材的人。以前拍影片要架攝影機、打光、修音修影,搞半天才剪好一支,現在只要準備好一張照片或一段影片,再丟一段聲音進去,就能生成無限長的動態畫面,嘴型還會跟語音完美對上,這對懶人(像我這種)根本天堂。

而且 InfiniteTalk 不只是嘴巴動而已,它的厲害之處在於「全身」都有小動作。你知道有些舊的口型生成模型,看久了會覺得詭異,因為人物像僵屍一樣不動,只剩嘴巴在開合。InfiniteTalk 就不一樣,它會讓頭部輕微轉動、眉毛跟表情自然浮現,甚至手部和身體的律動感也能保持一致,看起來超級真實,完全不像機器合成的感覺。

我自己試著想像幾個應用場景,真的會覺得很爽:

  • 上班簡報需要一個虛擬講者,直接用自己的照片丟進去,讓它自動講稿。
  • 想做語言教學影片,但懶得每天錄影,交給 InfiniteTalk 幫你說課文。
  • 開直播沒化妝?沒差,用 InfiniteTalk 生成一個虛擬分身來跟觀眾互動。

這工具真的打開了很多創作可能性。當然啦,我也很清楚,這類技術一定會有人濫用,所以我覺得如果你要玩,記得用在正向創作上,不要去做奇怪的東西,不然到時候整個社群都會對這種技術反感。

我特別喜歡的一點是,InfiniteTalk 支援兩種模式:一是 image + audio,你只要準備一張照片跟一段聲音,就能生成影片;另一個是 video + audio,等於你可以在原本的影片基礎上,延長或者改口型,讓影片看起來像重新拍過一樣。這對做「無限延伸」的內容超級有用,因為理論上它可以一直生成下去,沒有長度限制。

另外,我自己去逛了一下它的 GitHub,除了有完整程式碼,還有搭配 Gradio 和 ComfyUI 的支援。像我這種不是專業工程師的人,就會超依賴 ComfyUI,因為它用拖拉節點的方式就能跑流程,根本不需要很深的程式背景。再加上 Hugging Face 上有模型可以直接下載,基本上就是「拿來即用」。

比較有趣的是,我後來還跑去看 Reddit 上的討論,很多人一開始還以為它只是概念,沒想到真的放出來了。有人測試之後說它比 MultiTalk 還穩,動作更自然,也更能保持人物一致性。當然還是有人在問「VRAM 要多大才跑得動」,這種開源專案少不了這類技術宅的角力戰。不過整體來說,大家都很興奮,因為這是第一次有這麼完整的無限影片解決方案。

我自己最期待的,還是看到更多創作者用它來做實驗。像我有朋友做 podcast,超懶得錄影,他就打算用 InfiniteTalk 來做「有臉的 podcast」,就是單純上傳聲音,再配一張帥照,結果馬上變成影片版節目。觀眾一看就有畫面感,比只有聲音更吸引人。

說到這裡,我覺得未來網路上的「真人」和「虛擬」會更模糊。也許幾年後,我們滑 YouTube 的時候,根本分不出來眼前的講者到底是真人還是 InfiniteTalk 生出來的數位人。不過,身為一個愛玩新科技的人,我其實滿期待的,因為這代表任何人都能有更多方式去表達自己,不再被設備、時間或技術卡住。


 
 請點這裡繼續看更多內容
 請點這裡繼續看更多內容
 
 請點這裡繼續看更多內容
 
 請點這裡繼續看更多內容

 最後更新時間 2025-10-03 要更新請點這裡