Tobi,<br>
<br>
all the best with your effort!<br>
I think that a detailed workflow like the one Tom posted is very important, and it will help when it&#39;s time for gui/docs.<br>
<br>
I&#39;d suggest two more points based on what we do here:<br>
- alongside 2c you can use a standard distortion chart (a special grid 
image that you shoot with your camera on set at the same time as the 
actual shooting)<br>- the system should allow for manually tweaking 
track points frame by frame: there are scenes that you just can&#39;t track 
well enough and some manual tweaking is often needed to fix some small 
slipping that on a theatre screen would look very bad!<br>
<br>
and keep in mind that lenses suffer not only from distortion but from color aberration, too.<br>
<br>
I agree with Francesco that the un/distortion process should leave 
options open, in many cases you _want_ to degrade the cg render a bit to
 make it fit better.<br>
But (as long as one can choose) I think that the idea of integrating it into a blender camera is very interesting! (and it could have many interesting uses in animation, too)<br>
<br>good luck!<br>lorenzo<br><br><br><div class="gmail_quote">On Sun, May 8, 2011 at 2:57 PM, Francesco Callari <span dir="ltr">&lt;<a href="mailto:fgcallari@gmail.com">fgcallari@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
A couple of comments.<br><br><div>1. Whether the final composite is done on the original plate or a lens distortion-corrected (i.e. undistorted) one is an artistic decision, not just one based on image quality.   The production crew may want to remove the plate distortion, leave it unchanged or modify it as the shot demands from an artistic point of view (I have seen shots in which the lens distortion was intentionally magnified). The tools should support their decisions whatever they are. The image quality argument may be moot if the original plate resolution is higher than the final one and the distortion is moderate.</div>

<div><br></div><div>2. From a practical point of view, re-distorting the CG upon rendering so it matches the original (lens-distorted) plate is just one way to prepare the elements for compositing. It may not the the most efficient way, and it may even be impractical when the compositing is done with a tool other than Blender, or when some of the CG assets come from other tools. In these case the preferred alternative is to expose the calibrated lens distortion to the compositing tool. A common way to do this is by having the matchmoving tool export an &quot;offset map&quot;, i.e. an image whose red/green channels encode per-pixel the amount of x/y distortion. Many compositing tools (e.g. Shake) can import such images in a variety of formats. This ability to export the distortion as an image is a basic requirement.</div>

<div> </div><div><div><div></div><div class="h5"><div class="gmail_quote">On Sun, May 8, 2011 at 6:49 AM, Tobias Kummer <span dir="ltr">&lt;<a href="mailto:supertoilet@gmx.net" target="_blank">supertoilet@gmx.net</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hey all!<br>
<br>
Here are some of my thoughts on the matchmoving workflow in blender,<br>
after some discussion in IRC chat. Since I&#39;ve never used Pfmatchit, I<br>
cannot say anything about it, but when Syntheyes was mentioned I looked<br>
into it a little and thought its workflow might be suboptimal.<br>
It re-applies lens distortion on an image post-processing level, which<br>
is bad quality-wise. A better way would be setting blenders camera<br>
parameters, so the rendered output already has matching distortion and<br>
does not have to be altered afterwards (which brings up the topic<br>
blender real world camera settings - would be desirable anyway).<br>
See this (crappy) flowchart as illustration:<br>
<a href="http://www.pasteall.org/pic/12079" target="_blank">http://www.pasteall.org/pic/12079</a><br>
<br>
The first step in the proposed workflow accomodates for the fact that<br>
blender cannot draw lens distortions in the 3D viewport. So the<br>
outcoming undistorted footage is just used for visualisation purposes<br>
for the artist - for rendering/compositing, the original distorted<br>
footage would be used. This way, we skip the step that compromises quality.<br>
As blender will have combined 3D/tracking functionality, we should<br>
leverage on that and not copy the tracking-only workflow of other packages.<br>
<br>
Please correct me if there are any major mistakes in my thoughts!<br>
<br>
Greets,<br>
<br>
Tobias<br>
_______________________________________________<br>
Bf-vfx mailing list<br>
<a href="mailto:Bf-vfx@blender.org" target="_blank">Bf-vfx@blender.org</a><br>
<a href="http://lists.blender.org/mailman/listinfo/bf-vfx" target="_blank">http://lists.blender.org/mailman/listinfo/bf-vfx</a><br>
</blockquote></div><br><br clear="all"><br></div></div>-- <br>Franco Callari &lt;<a href="mailto:fgcallari@gmail.com" target="_blank">fgcallari@gmail.com</a>&gt;<br><br>            EC67 BEBE 62AC 8415 7591  2B12 A6CD D5EE D8CB D0ED<br>
<br>I am not bound to win, but I am bound to be true. I am not bound to succeed, but I am bound to live by the light that I have. (Abraham Lincoln) <br>

</div>
<br>_______________________________________________<br>
Bf-vfx mailing list<br>
<a href="mailto:Bf-vfx@blender.org">Bf-vfx@blender.org</a><br>
<a href="http://lists.blender.org/mailman/listinfo/bf-vfx" target="_blank">http://lists.blender.org/mailman/listinfo/bf-vfx</a><br>
<br></blockquote></div><br>