索尼可能在 GDC 2022 上没有正式亮相,但我们知道它的开发人员在旧金山的幕后工作,允许游戏开发人员试用 PS VR2。Anacrusis开发者 Chet Faliszek 在试用了这款耳机后在推特上写道,“世界只是感觉不同了”,由前总裁 Shuhei Yoshida 和 Playstation Creators 负责人 Greg Rice 提供。
虽然媒体显然不知道这些幕后演示,但我确实参加了一个有趣的 GDC 小组:“使用 Unity 为 PlayStation VR2 构建下一代游戏。” 由表面上拥有自己的PS VR2开发套件的Unity 开发人员领导,该小组讨论了 PS5 VR 与当前耳机(如 Quest 2)相比编码 VR 游戏的差异。
索尼已经宣布 PS VR2 将使用眼动追踪来支持中心点渲染,从而在您的视线中整合最高的图形。但是 Unity 提供了第一个硬性统计数据,说明这在多大程度上提高了性能:GPU 帧时间改进在中心点渲染时提高了 2.5 倍,在渲染和眼动追踪方面提高了 3.6 倍。
运行流行的 VR Alchemy Lab 演示,使用要求苛刻的图形,如动态照明和阴影,渲染和跟踪丢帧时间从 33.2 毫秒到 14.3 毫秒,提高了 2.3 倍。运行 4K 宇宙飞船演示时,CPU 线程性能和 GPU 帧时间分别快了 32% 和 14%。
实际上,开发者将能够优化他们的游戏以充分利用 PS5 的原始能力,而且你永远不会注意到外围的下降。
根据 Unity 开发人员的说法,眼动追踪还可以提供图形增强之外的 UI 优势。你可以放大玩家正在看的任何东西,无论是视觉上还是听觉上。或者玩家可以看着一个特定的物体并按下扳机与之互动,确保玩家不会抓住错误的东西而感到沮丧。
PS VR2 跟踪“注视位置和旋转、瞳孔直径和眨眼状态”。这意味着 PS VR2 可以知道你是否在眨眼或盯着 NPC,如果开发人员对其进行编程,就会触发某种个性化的反应。或者眼动追踪可以提供实际的瞄准辅助,因此瞄准不佳的投掷路线会更接近您所看的位置。
而且,当然,眼动追踪将为社交 VR 游戏提供更逼真的化身。
Unity(和其他游戏引擎,很可能)也将使用 PS VR2 眼动追踪来创建游戏内热图,准确地告诉他们玩家在给定场景中的位置。开发者可以在游戏测试或公开测试期间使用它来了解玩家为何在谜题中苦苦挣扎,或者他们在环境中最感兴趣的是什么。
公平地希望眼动追踪能让游戏变得更好,同时耳机可以从你那里收集的大量物理数据也让你感到有点奇怪。我很好奇游戏是否会让玩家知道他们的眼动追踪数据将传输给开发者,无论是在 ToS 中,还是在玩游戏前更公开地提出选择加入请求。
Unity 开发人员还提出了一个有趣的观点,事后看来很明显:PS VR2 游戏可以支持非 VR 游戏玩家在房间里的非对称沙发合作多人游戏。您可以 将 Quest 2或其他耳机投射到电视上,但 PS VR2 将不断连接到始终连接的控制台,从而使多人游戏更加自然。
开发人员可以创建多个游戏内摄像头,并将一个馈送指向耳机,另一个指向电视供其他玩家使用,确保他们以不同的视角体验相同的游戏。这将使 VR 更具社交性,并且与房间中的其他人更少隔离——同时还可以防止 VR 或非 VR 玩家具有内在(劣势)优势。
看看哪些最好的 PS5 游戏可以支持这种混合 VR/2D游戏,将会令人兴奋。
最后,PS VR2 控制器的触觉反馈、手指追踪和触发阻力将根据玩家所做的任何事情为开发者提供更逼真、差异化的反应。他们举了一个空间触觉的例子,玩家右侧的爆炸可以在右侧控制器中提供最多的反馈,并降低耳机和左侧控制器的强度。
Unity 开发人员警告说,“应谨慎使用重触发阻力”以避免使用户感到疲劳。如果玩家在Horizon Call of the Mountain中每次拉弓弦时都会遇到阻力,那么根据玩家的身体能力,沉浸感可能会变成挫败感。
虽然我无法潜入开发者会议并亲自尝试 PS VR2,但我觉得这个面板让我对耳机如何与其他耳机区分开来进行了理想化的偷窥,假设开发人员利用了这些工具。
PS VR2 和Oculus Quest Pro(也将支持眼动追踪)都有可能使 VR 比以往任何时候都更加身临其境,对玩家的反应更加强烈。尤其是 PS5 VR 将邀请家人和亲人一起享受刺激,而无需拥有自己的耳机。