<p>Hey Ton, </p>
<p>On Apr 7, 2012 11:35 AM, &quot;Ton Roosendaal&quot; &lt;<a href="mailto:ton@blender.org" target="_blank">ton@blender.org</a>&gt; wrote:<br>
&gt;<br>
&gt; Hi Andrew,<br>
&gt;<br>
&gt; Can you elaborate what you mean with &quot;OpenColorIO already supports F65&quot; ?<br>
&gt; You mean to convert from/to this colorspace?  Or does it read the raw?</p>
<p>It supports the F65 via ACES, as in the Input Device Transform is published and is a format that OCIO supports.</p><p>The birds eye view of what ACES is:</p><p>A scene-linear (and scene-linear must be HDR) space with a gamut that exceeds human vision. Intended not as a directly viewable (display referred) space but rather one where any mathematical operation can be carried out without fear of clipping. Also, future proof for different display technologies. </p>
<p>The definition of an ideal camera from which to define transforms between different devices (and renderers) and that space.</p><p>A Reference Rendering Transform that emulates much of the pleasing elements of film print stock and defines an ideal projector. This is the non-reservable transform that introduces toe and shoulder and brings the data into an LDR range. </p>
<p>An Output Display Transform which accounts for the differences between the ideal projector and the specified output device. </p><p>Perhaps the greatest challenge to supporting ACES in Blender is the need to excise most of the image loading and color related code. Looking at the comments on the mango blog about how the author of the DPX code didn&#39;t know that there were more than one log curve that could be used shows the folly of embeding that transform at that level. If something isn&#39;t correct, there is no way for the user to adjust.</p>
<p>With the current incomplete colour management system, blender&#39;s dicotomy of SRGB or srgb primaries with linear gamma concept would need to be removed. Also, ACES explicitly requires the support for HDR values (the +- 16 bit floating point range) internally and only clamps to a 0-1 range using the RRT. </p>
<p>As for reading F65 Raw, only applications that use the Sony SDK (like Davinci Resolve) will support the raw files natively.</p>
<p>In, Raw is inappropriate for heavy VFX work, I will elaborate on the reasons why later in the mail. It is however useful for colour grading. </p>
<p>&gt; What software is currently using opencolorIO with f65 support?<br>
&gt; Did you try to read in the data we posted and process it?<br><br>Nuke and the rest of the foundry apps. Beta support for After Effects and Blender :)</p><p>I haven&#39;t yet had the chance to play with the samples provided. What I can say is that a standardized, color managed workflow for the format has been approved by the Academy and is publicly distributed. </p>
<p><br>
&gt; I&#39;m personally a bit concerned about the image quality itself  - the amount of noise is disturbingly high. I would expect a nicer signal-noise ratio.<br><br>Raw is raw :) That all the secret sauce that camera manufacturers used to put in hardware to hid as much of that as possible is gone. Your seeing what the sensor sees and sometimes that means lots of noise. It would be worth looking into what processing you might have to do prior to the exporting of the OpenEXR files.  <br>
<br>
&gt; I also like to figure out how sony stores a frame in 10 Mbyte, and exports that to 50 MByte files. We probbly have to do more testing. :) And talk to sony i guess!<br>
&gt; (There seems to be a F65 SDK too, but I didn&#39;t check on that yet)</p><p>Firstly, a raw frame is monochromatic (in a sense). With any Bayer mask sensor, each pixel only has one of the RGB triplet values. The demosaicing process when developing raw files interpolates the missing values and creates an image that makes sense in and of itself. </p>
<p>One consequence of this is that the measurable resolution of any bayer sensor is less that the numerical resolution. For example, the Red One can shoot a 4096 x 2048 frame but the measurable spacial resolution is closer to 3.5k Both the F65 (8k) and the Arri Alexa (3.5k) supersample relative to their output resolution to achieve the listed measurable spacial resolution, 4k and 1080p respectively.  </p>
<p>On top of that, many camera manufacturers apply some form of compression to the raw frame to further reduce the data rate. Red, for example, uses a form of wavelette compression similar to jpeg2000. I am not certain if Sony employes their own compression scheme. </p>
<p>Finally, depending on the format, you may be exporting uncompressed interpolated data. All of these factor into your observation of the 5x increase in file size after developing. </p><p>As to why I think raw isn&#39;t suitable for heavy vfx, the advantages derived from the above features, namely flexibility and parameters that arn&#39;t baked, can be a hinderance.</p>
<p>As for the SDK, there was initially rumors of Sony open sourcing it or releasing it under a permissive licence. Unfortunately, this was corrected by Sony to mean that it would be shared with select 3rd parties. </p><p>
Talking to Sony would be wonderful, especially if they engage the larger Blender community openly. </p><p>Sincerely,</p><p><br></p><p>Andrew</p><p><br></p><p>[...]<br>
&gt; On 5 Apr, 2012, at 16:51, Andrew Hunter wrote:<br>
&gt;<br>
&gt; &gt; Hey Ton and Sebastian,<br>
&gt; &gt;<br>
&gt; &gt; I read the format woes blog post and wanted to give you my suggestions<br>
&gt; &gt; regarding some of your comments.<br>
&gt; &gt;<br>
&gt; &gt; Firstly, DPX is an inappropriate format for digital originated data.<br>
&gt; &gt; It&#39;s was designed by Kodak for digital intermediate work, scanning<br>
&gt; &gt; film and finishing on film. Many implementations differ wildly from<br>
&gt; &gt; each other in how they interpret tags like printing density and other<br>
&gt; &gt; things that really only matter if you are making a round trip on film.<br>
&gt; &gt;<br>
&gt; &gt; DPX remains because many people in motion picture post-production are<br>
&gt; &gt; familiar with it and use it as an interchange format, even though<br>
&gt; &gt; better option exist. Inertia is the problem. As part of the Image<br>
&gt; &gt; Interchange Framework, the Acadmy of Motion Picture Arts and Sciences,<br>
&gt; &gt; such a density based specification was created[1].<br>
&gt; &gt;<br>
&gt; &gt; Secondly, mfx is a container format and not proprietary, in fact it&#39;s<br>
&gt; &gt; a SMTPE standard (SMPTE 377M). FFMpeg now has good support for the<br>
&gt; &gt; container format<br>
&gt; &gt; for specific codecs.The image data encoded within however is another<br>
&gt; &gt; matter. There was discussion on the OpenImageIO mailing list about<br>
&gt; &gt; supporting mxf as a series of sub-images but no further headway was<br>
&gt; &gt; made on that front[2].<br>
&gt; &gt;<br>
&gt; &gt; Thirdly, your comment regarding linear vs slog on export illustrates<br>
&gt; &gt; that now more than ever proper colour management is essential for the<br>
&gt; &gt; mango project. In an ideal case, it shouldn&#39;t matter wither you export<br>
&gt; &gt; as a linear gamma encoded image or an slog encoded image. As I<br>
&gt; &gt; understand it, S-Log just compresses the linear and overbright vales<br>
&gt; &gt; (ie, &gt;1) into a 0-1 range for integer formats.<br>
&gt; &gt;<br>
&gt; &gt; OpenColorIO already supports the F65 via Academy IIF-ACES (Image<br>
&gt; &gt; Interchange Framework - Academy Color Encoding Space) workflow[3].<br>
&gt; &gt; Included in that are the academy approved transforms for the F65. This<br>
&gt; &gt; is an opportunity for Blender to be at the forefront of supporting the<br>
&gt; &gt; latest advances in digital cinematography. Further information on ACES<br>
&gt; &gt; is available from here[4].<br>
&gt; &gt;<br>
&gt; &gt; This would be however, a potentially major overhaul of how Blender<br>
&gt; &gt; views image data internally. For one, finally defining a colour space<br>
&gt; &gt; that we work in internally!<br>
&gt; &gt;<br>
&gt; &gt; Also of particular interest is the explicit definitions of the<br>
&gt; &gt; interaction with CGI renderers and ACES.<br>
&gt; &gt;<br>
&gt; &gt; Sincerely,<br>
&gt; &gt;<br>
&gt; &gt; Andrew Hunter<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; [1] <a href="https://github.com/ampas/aces-dev/blob/master/docs/APD-ADX_v1.1.pdf" target="_blank">https://github.com/ampas/aces-dev/blob/master/docs/APD-ADX_v1.1.pdf</a><br>
&gt; &gt; [2]<a href="https://github.com/OpenImageIO/oiio/issues/86" target="_blank">https://github.com/OpenImageIO/oiio/issues/86</a><br>
&gt; &gt; [3] <a href="https://github.com/imageworks/OpenColorIO-Configs" target="_blank">https://github.com/imageworks/OpenColorIO-Configs</a><br>
&gt; &gt; [4] <a href="https://github.com/ampas/aces-dev/blob/master/docs/ACES_1.0.1.pdf" target="_blank">https://github.com/ampas/aces-dev/blob/master/docs/ACES_1.0.1.pdf</a><br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; Bf-vfx mailing list<br>
&gt; &gt; <a href="mailto:Bf-vfx@blender.org" target="_blank">Bf-vfx@blender.org</a><br>
&gt; &gt; <a href="http://lists.blender.org/mailman/listinfo/bf-vfx" target="_blank">http://lists.blender.org/mailman/listinfo/bf-vfx</a><br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Bf-vfx mailing list<br>
&gt; <a href="mailto:Bf-vfx@blender.org" target="_blank">Bf-vfx@blender.org</a><br>
&gt; <a href="http://lists.blender.org/mailman/listinfo/bf-vfx" target="_blank">http://lists.blender.org/mailman/listinfo/bf-vfx</a><br>
</p>