Intel opublikował na GitHubie szczegółowy artykuł techniczny pt. „GFFE: G-buffer Free Frame Extrapolation for Low-latency Real-time Rendering”. Dokument przedstawia innowacyjną metodę generowania klatek, która eliminuje dodatkowe opóźnienia, charakterystyczne dla dotychczasowych technologii. Kto wie, może szykuje się kolejny spory przełom?
Współczesne rozwiązania, takie jak DLSS 3 od Nvidii, FSR 3 od AMD czy XeSS 2 Intela, wykorzystują zaawansowaną sztuczną inteligencję do tworzenia dodatkowych klatek między tymi wyrenderowanymi przez GPU. Dzięki temu gry osiągają wyższą liczbę klatek na sekundę (FPS) przy mniejszym obciążeniu sprzętu. Technologia znana i lubiana przez graczy. Ale ma wady.
Sprawdź: Tania karta graficzna- czy warto ją kupić? Jaki model wybrać?
Dotychczasowe algorytmy działają w oparciu o analizę dwóch kolejnych klatek przechowywanych w pamięci VRAM. Po analizie GPU tworzy nową klatkę, która trafia między te już istniejące, a następnie cała sekwencja jest wysyłana do monitora. A to powoduje niestety opóźnienia. W wolniejszych grach to nic, ale w e-sportowych to nieakceptowalne.
Intel proponuje alternatywę w postaci ekstrapolacji klatek. Nowa technologia GFFE Intela nie wymaga dostępu do poprzednich klatek czy dodatkowych informacji, takich jak wektory ruchu. Ekstrapolacja której używają korzysta wyłącznie z danych z już wyrenderowanych klatek. Chociaż sama koncepcja ekstrapolacji klatek nie jest nowa, rozwiązanie Intela stanowi istotny krok naprzód. GFFE łączy niskie opóźnienia, wysoką wydajność i jakość obrazu. Czy można chcieć czegoś jeszcze? Ktoś niedoświadczony powie, że absolutnie nie. Ja jednak dodam, że można chcieć żeby to faktycznie działało.
Zobacz też:
Unity zapewni obsługę Nvidia DLSS jeszcze w tym roku
Arc B580 wyprzedaje się jak świeże bułeczki. Intel stworzył hit
Intel ma coraz większy problem z wdrażaniem procesu 18A