但天知道,华为和卷耳智能科技为了这几分钟的画面费了多大的功夫。
视频想要触及感知,想要达到带上眼镜就仿佛踩在月表一样的感受,所需要的素材可不止是画面,甚至都不止是感官感知的数字化编解。
这其中最为困难的就是通过微弱的视觉、听觉给大脑营造“感知骗局”。
是的,骗!
在经过了无数的实验和训练之后,天命1.0营造系统知识体系的场景画面主要靠的是“入”。
一个不懂的东西,经过AI的对相关知识和系统的编织,形成一个意识画面辅助理解和认知,并通过图像的方式以视觉感知映射进大脑,纪弘将之称为“入”!
而一个人从未去过一个地方,比如月表,那么,将这个画面和场景营造给大脑,那就是“感知骗局”。
这其中的东西十分复杂,除了原始的画面和数据资料之外,每一个人的“感知”参数也是不同的,想要达到最佳的效果,必须进行针对化的训练和调整。
从天命1.0紧急上线开始,完整版的类思维模型就主要在做相关的标准化工作,虚拟眼镜算是第一个商业化应用的产品。
其先期应用场景,除了看视频,也不能叫看视频了,是看听感知体验一体的场景体验,除了这个之外,就是其真正虚拟通话的能力。
于东也是现场演示。
只见他挥着手,选择了一个场景,一间会客厅,两张沙发,一个茶几非常简单的布置,然后数字版的他直接坐了上去。
然后,拨号。