• 搜索
    搜新闻
  • 您的位置: 首页 >  资讯

    当前焦点!“视频领域的Midjourney”!AI视频生成新秀Gen-2内测作品流出,网友直呼太逼真

    华尔街见闻来源:2023-04-11 16:59:35

    号称可以一句话拍大片的AI视频生成工具Gen-2,开始露出庐山真面目。

    有推特博主已经率先拿到了内测资格。

    这是他用提示词“一个身材匀称or对称(symmetrical)的男人在酒吧接受采访”生成的结果:


    (资料图)

    只见一个身着深色衬衣的男人正望着对方侃侃而谈,眼神和表情透露着一股认真和坦率,对面的人则时不时点头以示附和。

    视频整体非常连贯且画质很是清晰,乍一看,真实访谈感满满有没有!

    同样的提示词生成的另一个版本也不赖:

    这次镜头更加拉近,背景更逼真,人物则仍然富有表现力。

    有网友看完这组作品直呼:

    太不可思议了吧,只靠文字提示就能生成这样的结果!

    还有人直言:

    这是视频领域的Midjourney来了。

    博主实测Gen-2

    这位博主名叫Nick St. Pierre,专门在推上分享他用AI制作的作品。

    除了开头所见的写实风,他还发布了一组Gen-2的科幻作品。

    比如“宇航员穿越太空”:

    “一名武装士兵沿着宇宙飞船的走廊奔跑,身后一道黑影摧毁了墙壁”:

    “一家在人类动物园吃微芯片的机器人”:

    “人形机器人大军在冰冻的平地上进行殖民”:

    (有种权游里面异鬼大军进击长城的气势……)

    “地球上最后一个人看着入侵的宇宙飞船降落在东京上空”:

    ……

    以上这些全部都只凭一句提示词就能完成,不需要借鉴其它图片和视频。

    虽然说这组科幻的效果相比“酒吧男人接受采访”稍显逊色,但神奇的是,它和AI图像生成模型诞生之初的那种“混沌不清”的味道可以说不相上下——仿佛看到了Stable diffusion等AI当时的影子。

    如Nick St. Pierre表示:

    Gen-2还处于婴儿期,后面一定会更好。

    我们也在网上找到了其他已经拿到内测资格的人测试的一些效果:

    可以说,除了比较难的科幻作品,其它它拿捏的都还不错的亚子。

    AI视频生成也狂飙

    专攻视频生成的AI工具Gen-2于3月20日发布(论文3月11号)。

    作为AIGC领域的新秀,它的迭代速度和质量也是相当快了:

    Gen-1版本2月才刚诞生,那会还只能对已有视频进行编辑;

    现在Gen-2就已经可以用文字和图像作为提示词直接生成视频了。

    官方号称它为“生成式AI的下一步”,宣传语给的也是很霸气:

    say it,see it。(只要你能说出来,我就能让你看到)

    Gen-2的更新一口气带来了八大功能:

    文生视频、文本+参考图像生视频、静态图片转视频、视频风格迁移、故事板(Storyboard)、Mask(比如把一只正在走路的小白狗变成斑点狗)、渲染和个性化(比如把甩头小哥秒变海龟人)。

    它的出现和AI绘画一样,让人看到了影视、游戏和营销等领域暗藏的巨大变革。

    其背后开发公司也值得说道,它就是Runway。

    Runway成立于2018年,为《瞬息全宇宙》特效提供过技术支持,也参与了Stable Diffusion的开发(妥妥的潜力股)。

    提示:Gen-1已经可以开始玩了(125次机会用完之后就只能按月付费了),Gen-2还没有正式对公开放。

    除了Gen系列,微软亚研院还最新发布了一个可以根据文字生成超长视频的AI:NUWA-XL。

    只用16句简单描述,它就能get一段长达11分钟的动画:

    在往前一点儿,就在Gen-2发布同一天,阿里达摩院也开源了17亿参数的文本转视频AI:

    效果是酱婶的:

    ……

    可以预见,不止图像生成,视频领域也要变得热闹起来了。

    咳咳,所以下一波大众AI狂欢,会是它吗?

    本文作者:丰色,来源:量子位,原文标题:《“视频领域的Midjourney”!AI视频生成新秀Gen-2内测作品流出,网友直呼太逼真》

    风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

    关键词:

    下一篇: 最后一页
    上一篇: 每小时智能分选30吨 宜昌建成柑橘全产业链示范园