回复于:【Nuke合成】使用CameraTracker解算摄像机位置(图文详解)

VFX大学 Nuke合成影视制作 【Nuke合成】使用CameraTracker解算摄像机位置(图文详解) 回复于:【Nuke合成】使用CameraTracker解算摄像机位置(图文详解)

#55482

韩十七
参与者

三、使用提取的跟踪数据更新解算结果

在 CameraTracker 中,我们可以使用跟新的跟踪数据向已有摄像机添加更多帧。不过一般情况下,帧范围不能扩展很远,通常情况下扩展范围为 10~15%,因为已有的解算会将 3D 点锁定到固定位置,所以将新的 2D 跟踪数据匹配到 3D 点上会产生很高的跟踪误差,而 CameraTracker 会拒绝这些误差。

比如说,我们已经解算了第 1~10 帧,那么现有的 3D 跟踪点都是基于这些帧的数据得来的。如果我们将这个解算路径扩展到第20帧,使第 11~20 帧上的 2D 点匹配已计算的 3D 点,一般不会得到好的匹配,而且扩展范围的解算误差会增加。

要使用更新的跟踪数据来更新解算结果:

1. 跟踪其他帧。

如果被拒绝的跟踪点(红色高亮显示)太多,可以尝试减少更新的画面帧。

2. 点击 Update Solve 计算新的跟踪数据。

如果被拒绝的跟踪点太多,我们会发现,还不如重新跟踪整个帧范围然后使用完整的新数据解算摄像机位置,哈哈哈哈哈哈哈……从头开始解算需要使用所有帧上的视差信息,因此得到的整体解算误差会比较低。