代码之家  ›  专栏  ›  技术社区  ›  ronag

GPU上的高质量图像放大

  •  2
  • ronag  · 技术社区  · 14 年前

    我正在寻找有趣的图像放大算法,可以在GPU上实现视频的实时缩放。线性和双三次插值算法不够好。

    建议?

    以下是我发现的一些论文,不确定它们是否适合GPU实现。

    Adaptive Interpolation

    Level Set

    我在电视上看到了一些用于缩放的手机处理器演示,结果令人印象深刻,不幸的是没有链接。

    5 回复  |  直到 10 年前
        1
  •  0
  •   bjoernz    14 年前
        2
  •  3
  •   log0    14 年前

    lanczos3 是一个非常好的插值算法(您可以在gimp或virtualdub中测试它)。它通常比三次插值更好,并且可以并行化。
    基于GPU的版本在Chromium中实现:
    http://code.google.com/p/chromium/issues/detail?id=47447
    查看Chromium源代码。

    对于实时视频处理来说,它可能仍然太慢,但如果不使用太高的分辨率,可能值得尝试。

        3
  •  2
  •   Salman Ul Haq    14 年前

    您可能还想尝试CUVILIB,它提供了一套很好的GPU加速图像处理算法。有关信息,请访问: http://www.cuvilib.com

    披露:我是开发CUVI的团队的一员。

        4
  •  1
  •   BenMorel Manish Pradhan    11 年前

    还是有点“工作在进行中”,但是 gpuCV 是在GPU上的opencl中实现的opencv图像处理功能的替代品。

        5
  •  1
  •   Danny Ruijters    10 年前

    预过滤的三次B样条插值提供了良好的结果(您可以看一下 here 对于一些理论背景)。 可以下载CUDA源代码 here . 可以找到WebGL示例 here

    编辑:现在可以在Github上使用立方插值代码: CUDA 版本和 WebGL 版本。