A couple of comments.<br><br><div>1. Whether the final composite is done on the original plate or a lens distortion-corrected (i.e. undistorted) one is an artistic decision, not just one based on image quality.   The production crew may want to remove the plate distortion, leave it unchanged or modify it as the shot demands from an artistic point of view (I have seen shots in which the lens distortion was intentionally magnified). The tools should support their decisions whatever they are. The image quality argument may be moot if the original plate resolution is higher than the final one and the distortion is moderate.</div>
<div><br></div><div>2. From a practical point of view, re-distorting the CG upon rendering so it matches the original (lens-distorted) plate is just one way to prepare the elements for compositing. It may not the the most efficient way, and it may even be impractical when the compositing is done with a tool other than Blender, or when some of the CG assets come from other tools. In these case the preferred alternative is to expose the calibrated lens distortion to the compositing tool. A common way to do this is by having the matchmoving tool export an &quot;offset map&quot;, i.e. an image whose red/green channels encode per-pixel the amount of x/y distortion. Many compositing tools (e.g. Shake) can import such images in a variety of formats. This ability to export the distortion as an image is a basic requirement.</div>
<div> </div><div><div class="gmail_quote">On Sun, May 8, 2011 at 6:49 AM, Tobias Kummer <span dir="ltr">&lt;<a href="mailto:supertoilet@gmx.net">supertoilet@gmx.net</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
Hey all!<br>
<br>
Here are some of my thoughts on the matchmoving workflow in blender,<br>
after some discussion in IRC chat. Since I&#39;ve never used Pfmatchit, I<br>
cannot say anything about it, but when Syntheyes was mentioned I looked<br>
into it a little and thought its workflow might be suboptimal.<br>
It re-applies lens distortion on an image post-processing level, which<br>
is bad quality-wise. A better way would be setting blenders camera<br>
parameters, so the rendered output already has matching distortion and<br>
does not have to be altered afterwards (which brings up the topic<br>
blender real world camera settings - would be desirable anyway).<br>
See this (crappy) flowchart as illustration:<br>
<a href="http://www.pasteall.org/pic/12079" target="_blank">http://www.pasteall.org/pic/12079</a><br>
<br>
The first step in the proposed workflow accomodates for the fact that<br>
blender cannot draw lens distortions in the 3D viewport. So the<br>
outcoming undistorted footage is just used for visualisation purposes<br>
for the artist - for rendering/compositing, the original distorted<br>
footage would be used. This way, we skip the step that compromises quality.<br>
As blender will have combined 3D/tracking functionality, we should<br>
leverage on that and not copy the tracking-only workflow of other packages.<br>
<br>
Please correct me if there are any major mistakes in my thoughts!<br>
<br>
Greets,<br>
<br>
Tobias<br>
_______________________________________________<br>
Bf-vfx mailing list<br>
<a href="mailto:Bf-vfx@blender.org">Bf-vfx@blender.org</a><br>
<a href="http://lists.blender.org/mailman/listinfo/bf-vfx" target="_blank">http://lists.blender.org/mailman/listinfo/bf-vfx</a><br>
</blockquote></div><br><br clear="all"><br>-- <br>Franco Callari &lt;<a href="mailto:fgcallari@gmail.com">fgcallari@gmail.com</a>&gt;<br><br>            EC67 BEBE 62AC 8415 7591  2B12 A6CD D5EE D8CB D0ED<br><br>I am not bound to win, but I am bound to be true. I am not bound to succeed, but I am bound to live by the light that I have. (Abraham Lincoln) <br>

</div>