在元宇宙里看时装秀, 会是什么赶脚?
在元宇宙里看时装秀, 会是什么赶脚?
各种布料摩擦细节, 不光看得一清二楚, 而且就跟真的一样。
裙摆随着模特的走动飞舞起来~光是看看, 就能知道这件衣服是不是轻盈。
这是图形学大牛王华民团队的最新成果, 提出了一个基于 GPU 的预处理器 MAS, 一张 GPU 完成实时布料碰撞特效。
比如这件羊毛大衣, 就能以每秒 37 帧的速度实时模拟出来, 仿真精度可达 5mm。
而且也不光是衣服, 连毛毛球、软皮玩具也能实现逼真的碰撞特效。
其论文收录于 SIGGRAPH 2022。作为全球规模最大、水平最高的图形学会议,SIGGRAPH 每年接收的论文都代表着当年 CG 最高水平。
来康康这是一项什么样的研究?
一张 GPU 实时模拟碰撞特效
要构建真正意义上的元宇宙, 首先需要的是一个强大的实时物理仿真模拟引擎。
而当前常见的物理引擎在效果或效率上还远达不到理想的状态。
服装模拟是所有模拟问题的制高点。
因为服装的材质、碰撞都是最复杂的, 解决好服装模拟, 就等于解决了大部分实时物理模拟问题, 为未来元宇宙开发奠定基础。
从技术上划分, 实时物理模拟分为流体和形变体模拟两大类。
相较于流体, 形变体的应用范围更加广泛, 比如弹性体模拟、布料模拟、头发模拟等, 其产业端的价值也更加清晰, 比如在服装、工业上的应用。
但当前困扰科学家的一道挑战, 是完成更高质量的实时仿真。
任何形变体的模拟, 最后都归于一个线性求解问题, 个中区别无非就是矩阵内部数值、稀疏程度还有矩阵大小的不同。
因此, 如何快速求解也就成为其中一个重要的突破口。
基于这样的背景, 王华民团队提出了基于 GPU 的 MAS 预处理器 (Multilevel Additive Schwarz Preconditioner)。
顾名思义, 这一预处理器采用了多层和域 (domain) 分解的概念。
以往的算法主要依赖在一层网格上处理, 这样域越少越好, 不然误差大。
但此次研究人员则是构建多个网格层, 这样使用小的、不重叠的域, 可以发挥 GPU 并行计算能力。
具体而言,MAS 预处理程序可以分成三个阶段。
第一阶段, 利用 Morton 代码快速分层分域。
研究人员提出了一种超节点分割方法和跳过方法, 用于空间的初步构建。
第二阶段, 通过单向 Gauss-Jordan 消除的低成本矩阵预计算, 在每个域进行快速的 inverse 求解。此外, 研究人员还开发了一个选择性更新方案, 以解决轻微的矩阵修改。
第三阶段, 运行时预处理, 从而对矩阵向量快速求解。为了降低计算成本, 研究人员发明了一种对称矩阵-向量乘法。
实验表明,MAS 预处理器与许多线性和非线性求解器兼容, 这些求解器用于带有动态接触的形变体模拟, 如 PCG、加速梯度下降和 L-BFGS。
以最常见的 PCG 求解器为例, 在两者一起使用时, 在 GPU 上的收敛速率仍然明显优于其他预处理程序, 包括 GPU 上的多网格 AmgX。
在达到相同的收敛目标时,MAS 预处理器的收敛速度要比其他预处理器快约四倍。
与此同时,MAS 预处理器在 CPU 上也是有效的, 其性能也优于其他预处理程序, 比如英特尔的 ILU0 和 ILUT。
除此之外还发现,MAS 预处理器的计算开销很低。
并行计算时仅为 0.118 秒, 相比之下 ILU0、ichol 和 ILUT 的成本为 2.50 秒、33.8 秒和 154 秒。
研究人员表示, 此次为 5 万个定点到 50 万个顶点区间规模的布料和形变体仿真推向了一个更高水平。
未来还将继续研究基于 GPU 域分解 (GPU-based domain decomposition) 的技术, 因为这类算法有很多可以挖掘的空间。
Style3D 出品
本次研究团队来自 Style3D 研究院王华民所带领的团队。
王华民, 俄亥俄州立大学前副教授, 佐治亚理工学院计算机科学博士, 斯坦福大学计算机科学硕士, 公认的世界级图形学科学家。
曾以唯一作者身份完成四篇 SIGGRAPH 论文,6 届 SIGGRAPH/SIGGRAPH Asia 技术论文委员会委员, 其学生遍布知名大厂, 因为聚焦布料仿真, 业内流传着这样一句话:
如果你研究布料仿真, 就不可能没读过王华民教授的论文。
去年 8 月, 他正式加盟国内时尚产业链 3D 数字化公司——凌迪科技 Style3D, 任职首席科学家兼凌迪研究院院长。
结果不到一年时间, 就率队带来了最新产学研成果, 将实时仿真技术又提升到了新水平。
研究进展如此快速, 背后既有世界级技术团队的实力加成, 也有企业的产业化驱动。
凌迪科技 Style3D, 创立之初将视线聚焦在最制约服装行业效率的服装设计开发环节上。
其核心产品, 一个是率先打破国外技术垄断的 3D 柔性体仿真工业软件 Style3D Studio, 其二是全球创新的面料数字化设计软件 Style3D Fabric, 另有研发全流程协同平台 Style3D Cloud, 以及开创性的数字时尚内容资源商城 Style3D Market。
研发过程中从面辅料选择、款式设计、渲染仿真、协同与展销等全流程, 都可以进行数字化呈现以及协同合作, 以此来提升研发效率。
此外, 凌迪 Style3D 还依据工厂生产标准生成生产资料清单, 串起整个生产制造环节, 进一步推动整个行业链路的数字化。
据透露, 今年 6 月底凌迪 Style3D 将有面向元宇宙开发者的神秘产品发布。
目前, 它的客户涉及到海内外品牌方、ODM(原始设计制造) 商、面辅料商以及泛电商等。
值得一提的是, 就在 SIGGRAPH 收录结果出炉同一时间, 凌迪 Style3D 官宣了与牛仔技术公司 Jeanologia 的合作。
全球每年生产 35% 的牛仔裤, 都采用了这家公司的环保技术。
两者合作下, 牛仔设计师也能够直接在 Style3D 一键调用牛仔裤纹样及水洗效果图案等, 无需制作牛仔裤实样, 即可呈现牛仔裤水洗等多种工艺的设计效果。
而且这样高仿真的数字牛仔裤, 还可以直接拿去营销展示和售卖。
事实上, 除了推动整个服装产业链效率外, 还有更现实的全球性问题能得到缓解, 即现在热议的碳中和、碳排放。
当前, 纺织服装已经成为全球第二大污染产业, 全球每年约有 1280 万吨服装被填埋焚烧, 制作服装所排放的废水占全球总量的 20%, 并承担着全球 10% 碳排放。
甚至于, 还有 15% 纺织产品会遭遇不被使用, 直接走向烧毁的命运, 从而造成二次污染。
而一旦将整个产业从研发、生产到最后的商品展销等全流程搬上数字平台, 污染问题就能得到有效解决, 可持续时尚才真正有落实的方向。
图形学的产业发展
最后, 回到这篇被收录 SIGGRAPH 的研究成果本身。
可以看到的是, 它不像是英伟达、谷歌每年传统艺能——各种炫酷逼真的特效技术, 以彰显企业的前沿技术实力。
而是从更垂直的产业角度出发, 技术迭代不太容易被人感知, 但切实地解决了产业问题。
一方面, 这说明图形学技术已经来到了产业端创造价值。
图形学最有可能、也是最大限度落地的领域, 不是热议的电影、游戏, 而是像服装、工业这等产业领域。
另一方面还说明中国在图形学上技术水平并不弱, 会像 AI 一样从前沿到产业加速前进。
从此次 SIGGRAPH 论文收录结果可以看到, 中国团队已经占据名单的一大半, 其中不乏高校以及企业代表。
随着图形学产业价值更加显性, 更多世界级大牛参与进来。企业也将通过设立研究院、启动奖学金等方式吸引更多高校人才加入。
以凌迪 Style3D 为例, 去年就启动了凌迪图形学奖学金计划, 每位获奖者将获得 3 万人民币的现金奖励, 第一期就有清华、浙大、中科大、南开、山大等 10 名硕博士获得。
如此一来, 产学研闭环一形成, 更有利于图形学产业化的长期发展。
如今爆火的元宇宙, 最终挤掉泡沫。像当初的 AI 一样, 只有将底层技术与产业相结合, 发挥更长远的价值。
而这一点, 中国的企业已经先行一步。
来源:科技之家