这里没办法发视频,发几个图片感受感受吧
OpenAI发布了Sora,一种文字生成视频的技术,从演示看,效果还是相当不错的。
Sora的强大之处在于其能够根据文本描述,生成长达 60秒的视频,其中包含精细复杂的场景、生动的角色表情以及复杂的镜头运动。
目前,Sora 已对网络安全的红队成员开放,以评估其可能存在的风险或潜在伤害。同时,OpenAl也邀请了视觉艺术家、设计师和电影制作人使用
Sora,收集他们的反馈,以使模型更好地服务于创意行业。
Sora能够创造出包含多个角色、特定动作类型以及与主题和背景相符的详细场景。这款模型不仅能理解用户的指令,还能洞察这些元素在现实世界中的表现。
Sora对语言有着深刻的理解,能够精准地捕捉到用户的需求,并创造出充满生命力、情感丰富的角色。此外,Sora 还能在同一视频中创造出多个画面,同时保持角色和视觉风格的一致性。
当然,Sora还不是完美的。比如在模拟复杂场景的物理效应,以及理解某些特定因果关系时,它可能会遇到难题。举个例子,视频中的人物可能会咬一口饼干,但饼干上可能看不到明显的咬痕。
在处理空间细节,比如分辦左右时,Sora也可能会出现混淆;在精确描述一段时间内发生的事件,如特定的摄影机移动轨迹时,也可能显得力不从心。
视频二提示词:一位时髦的女士穿行在东京的街头,街道充满了温暖的霓虹灯光和动感的城市标志。她穿着一件黑色皮夹克,一条长红裙和黑色靴子,手拿一个黑色手提包。她戴着太阳镜和红色口红。她走路既自信又随意。街道潮湿且能反射,创造出彩色灯光的镜面效果。许多行人来来往往。
不过现在sora的账号还没有开放出来,这里有一份chatgpt教程,对ai刚兴趣的朋友可以先尝试一下chatgpt: