用于太字节大小数据的大容量渲染和可视化库

问题描述:

我想要将几千兆字节到几太字节之间的三维数据卷可视化。一种解决办法是推出自己的产品,但这可能需要一些时间。为了避免这种情况,我目前正在探索当前可用的解决方案。我越查看它,我发现的软件就越多。一些实例包括ParaView/VTKOSPRayEmbreeSplotchNVIDIA GVDB/OptiX用于太字节大小数据的大容量渲染和可视化库

一些该软件提供用于可视化的完整解决方案,和数据操作(例如,ParaView/VTK)。其他人主要关注高性能渲染(例如,Embree)。其他人提供用于渲染的低级API(例如,GVDB/OptiX)。一些针对特定硬件进行了优化(例如,用于英特尔硬件的Embree,用于英伟达GPU的GVDB/Optix)。其他包括用于分布式渲染的基础设施(例如,ParaView/VTK)允许他们声称他们可以渲染数TB的数据集,而其他人则将此功能留给用户。可以说,使用一些巧妙的LOD和非核心算法,也可以在单台机器上执行多TB大小的数据集体绘制,但让我们再来讨论一下。最后,还有一个来自大学研究项目和学术界的gazillion软件,这些软件是为解决特定问题而建立的,不再维护。

我不知道这里有没有人有这样的软件的经验,可以给我一些指针或建议,哪些软件/库值得尝试。我理想中的要求如下:

  • 对数据进行容积再现/光线跟踪设置在交互式帧频几个TB(假设> 10 FPS)。
  • 利用不同的并行架构(CPU,GPU,多个节点)
  • 实现/支持细节层次算法。
  • 能够在渲染场景中添加小部件。例如,轴箭头,剪切平面等。
  • 以提供公共API的库的形式使用。理想情况下,在Python中,但我猜想围绕C/C++ API制作Python包装器本身是非常可行的。
  • 他们积极维护并有适当的文件。

我不一定要找一个软件库,包括所有上述,但越多越好! :)

预先感谢您。

AstrOne,这里

英戈,从OSPRay队;-)

“太字节”听起来很有趣....很乐意看看你想要的数据类型来正在渲染w/OSPRay ...给我发电子邮件!

+0

欢迎来到SO Ingo,抛开关于在这里公开提供您的电子邮件地址的讨论,您要求的内容通常就是评论中的内容。 – Kanak