One important remaining item for the blender motion tracker is supporting camera distortion end-to-end. That means supporting distortion in the camera solver (which means solving for the distortion model during the 3D solve); this is in progress. The other thing that has to be supported is both of the following:<div>
<ol><li>Correcting distorted footage to make it perfectly rectilinear, and compositing it with rendered footage, which is by default perfectly rectilinear.</li><li>Rendering footage with distortion, either by distorting the rendered frames (which means cropping the final video) or somehow integrating distortion into the rendering, which I believe is possible with cycles.</li>
</ol><div>Matthias is going to start enhancing the distortion code in libmv and building warping nodes in blender&#39;s compositor which use the camera models from libmv. It&#39;s critical that there is a distortion node that uses the same distortion code as libmv, for future sanity and quality of solutions. This does not preclude other distortion nodes, just that there needs to be one that matches libmv.</div>
</div><div><br></div><div>The distortion node should be able to take a &quot;camera intrinsics&quot; data block from the solver. Currently the solver doesn&#39;t recover the distortion terms, but this will change.</div><div>
<br>The other issue is that we will probably support a couple of different distortion models, but not at the start. We&#39;ll have to keep this in mind when desiging things.</div><div><br>The immediate plan is</div><div><ol>
<li>Write a blender compositior node that runs forward distortion; this will involve getting the machinery in place to pass tiles of the image to libmv and back</li><li>Make undistortion in libmv fast</li><li>Extend blender&#39;s compositor node to also do undistortion with libmv using the faster code</li>
<li>(maybe) add more camera models</li></ol><div>That&#39;s it.</div></div><div><br>Keir</div>