• 专注网络文化经营许可证办理、增值电信业务许可证办理、游戏备案、直播许可证等各类证件代办,提供一站式解决方案

我的位置:

新闻分析丨视频生成新模型Sora的突破与风险

作者:「」

发表于:2024-04-04

浏览:21 次

文章分析丨全新AI模型Sora视频生成的突破与潜在风险

作者:吴晓凌

美国人工智能公司“开放人工智能研究中心”(OpenAI)*近发布了一款全新的生成式人工智能模型Sora,该模型能够通过文本指令生成视频,这一突破不仅夯实了OpenAI在人工智能领域的**地位,同时也引发了人们对“深度伪造”等潜在风险的关注。

技术突破或将引领行业变革

Sora是OpenAI首次涉足视频生成领域。据悉,Sora采用了Transformer架构,可以根据文本指令生成逼真且富有创意的场景,生成的视频风格多样,画面清晰,*长可达一分钟。该模型还可以根据静态图像生成视频,或者对现有视频进行扩展或填充缺失的帧。

一些专家认为,Sora的推出再次凸显了人工智能技术对生活和传统行业的深刻影响。人工智能在视频生成领域的迅猛发展为塑造新的影视产业格局打开了大门,但也可能对现有影视产业造成颠覆性影响。去年,好莱坞遭遇了长达63年来首次全面罢工,该行业的一部分工作可能被人工智能所取代。Sora的问世进一步加剧了这种威胁的紧迫感,据报道,Adobe公司股价在Sora发布第二天暴跌超过7%,这一事件引发了市场的震荡。

尽管不是**家进入文本转视频领域的公司,但Sora的推出使OpenAI在这一领域取得了**地位,巩固了其在生成式人工智能领域的领导地位。第三方信息分析机构高德纳咨询公司的分析师钱德拉塞卡兰表示:“在这个领域没有一家公司比OpenAI更有雄心,而这种雄心似乎一直在增加。”

据OpenAI称,Sora对语言有着深刻的理解,能够理解用户文本提示,并深入了解所描述事物在物理世界中的存在方式。“我们正在教导人工智能理解和模拟物理世界中的运动,目标是训练模型以帮助人们解决需要与现实世界互动的问题。”

“深度伪造”引发担忧

Sora的发布引起了广泛关注,但此次推出更像是一个预览版,公众还难以全面了解该模型的优劣势。OpenAI表示,目前仅向一些设计师和电影制作人等特定群体提供Sora的访问权限,以获取有关改进该模型的反馈意见。该公司未透露训练Sora模型的数据等基础细节,也没有确定向公众发布的日期。

OpenAI承认,目前Sora生成的视频可能包含不合逻辑的图像,混淆左右等空间细节,难以准确模拟复杂场景的物理原理和因果关系,例如,一个人咬了一口饼干,但饼干上却没有咬痕。

随着算力的增强和模型的改进,人们可能会在短期内获得更完善、先进的视频生成功能。

业内有人担心,Sora可能会促进“深度伪造”(Deepfake)技术的发展。加利福尼亚大学伯克利分校信息学院副院长法里德表示:“当新闻、图像、音频、视频等内容都可以被伪造时,真实的概念就变得模糊不清。”

为了解决伪造问题,OpenAI表示,在向公众推出产品时,将确保生成的视频包含来源元数据,并推出检测视频真实性的工具。OpenAI还承诺,在使用Sora之前将采取安全措施,包括由专家对模型进行对抗性测试,评估可能的危害或风险;核查并拒绝包含极端暴力、性内容、仇恨图像、他人知识产权等内容。

尽管进行了广泛的研究和测试,OpenAI也承认:“我们无法准确预测人们将如何使用我们的技术,无法预料技术可能被滥用的方式。”

监管挑战在AI蓬勃发展的途中

随着科技领域的不断创新,如何平衡技术进步与社会安全已成为各界关注的焦点。

OpenAI表示,将与全球各地的政策制定者、教育工作者和艺术家合作,了解他们的担忧,确定Sora的积极使用案例,并认为从实际应用中学习是创建和发布更安全人工智能系统的关键组成部分。

有专家指出,在目前的治理结构和管控措施跟不上的情况下,单靠企业恐怕无法提供社会所需的人工智能安全性和信任度。