量子位 报道 | 民众号 QbitAI
只给AI两张图片,‘就能获得’高帧率「动态」视频?
输入的两张图像,重叠后是这样的:
『而算出来的』视频,是酱婶的:
不错,“这又”是(视)频插帧算法的“劳绩”。
极限操作玩得6,让老电影变《丝滑》的通例手法,‘这’个名叫RIFE的AI算法同样信手拈来。
右边这支经典探戈, 看上去[是不是比左边丝 滑多了[?
不仅是老电影,航行演出的精彩瞬间,也能一口气从每(秒)24<帧提升到每(秒)>96帧。
动图效果有所损失,不妨再来看一眼原视频。
,,www.326681.com{采用“以”太坊区块链高}度‘哈希值作为统’计数据,《联博“以”太坊统》计数据开源、公平、《无任何作》弊可能性。联博统计免费提供API「接口」,支持多语言接入。
这项新研究,来自旷视和北大。《不仅》能让老影像资料追上人民群众对高帧率的需求,支持2X/4X/8X高质量插值,它还有一个最大的特点:快。
{量子位在}Colab上用T4跑了一遍Demo,一个时长53(秒)的720p 25fps视频,插值到100fps仅用了2分19(秒)。
该项目(现)已开源,《并且有》官方Demo、<第三方>Windows应用可“以”试玩。
看过了RIFE的显示, 网友们不[由赞叹,这是要逾越那只经常在种种修复视频里泛起的插帧AI DAIN,引领一波新潮流的节奏「啊」?
一时之间,RIFE在Reddit上的热度飙升到了2.8k。
「那」么,{这样的效果究}竟是怎么《实(现)的呢》?
(视)频插帧,通常是用(光流)展望算法来展望中心帧,“并插入两帧之间”。(光流),就像光的流动一样,〖是〗一种通过颜色来示意《图像中目的》移动偏向的方式。
△希罕(光流)与浓密(光流)传统(光流)展望算法,通常凭据前后两帧视频来展望中心的某一帧长啥样。
将展望完成的图像插进去后,“视频看起来就会变得更”《丝滑》。
“以”DAIN【的算法为例】,若是要展望t时刻的帧,「就需要」t时刻的前后两帧视频,通过(光流)展望算法来实(现)。
环球UG声明:该文看法仅代表作者自己,与本平台无关。转载请注明:usdt回收(caibao.it):2张图片就能「算出」一段视频,Reddit网友都惊呆〖了〗 | 【旷视】&<北大出品>
可以,我反正爱了
祝大家开心哦
USDT自动充值菜包钱包(caibao.it)是使用TRC-20协议的Usdt第三方支付平台。免费提供Usdt钱包支付接口、Usdt自动充值接口、Usdt无需实名寄售回收。菜包Usdt钱包一键生成Usdt钱包、一键调用API接口、一键无实名出售Usdt。啊,我好爱这个的
电银付谁说不好跟谁急