W Budapeszcie odbyła się pierwsza prezentacja konsumenckich kart graficznych AMD Radeon RX Vega. Chociaż napisanie „prezentacja” jest nieco na wyrost, bowiem AMD nie pokazało zbyt wiele. Jednak kilka osób miało okazję porównać wydajność karty do konkurencyjnego GTX-a 1080.
W Budapeszcie osoby uczestniczące w imprezie miały okazję pograć chwilę na komputerze z kartą AMD Radeon RX Vega oraz procesorem Ryzen 7. Obok postawiony był komputer z kartą graficzną Nvidia GeForce GTX 1080 (model referencyjny), aby móc porównać wydajność obu sprzętów. Niestety, organizatorzy wybrali tylko jedną grą – Battlefielda 1, uruchomionego w rozdzielczości 3440 x 1440 pikseli. Co ważne, do komputera z Radeonem był podłączonym monitor z obsługą FreeSync, a do konkurencyjnego GeForce’a model z G-Sync.
Z relacji kilku osób można się dowiedzieć, że oba sprzęty radziły sobie niemal identycznie, chociaż na jednym z nich dało się zauważyć mikroprzycięcia (nie była widoczna liczba FPS-ów, więc to subiektywne odczucia grających). Niestety, nie wiemy, na którym komputerze to się działo. Wiadomo jednak, że GTX 1080 w Battlefield 1 radzi sobie z wyświetlaniem 60 klatek na sekundę, nawet w rozdzielczości 4K przy maksymalnych ustawieniach szczegółowości grafiki. Tymczasem 3440 x 1440 pikseli to jednak sporo mniej niż 3840 x 2160. Na tej podstawie można domniemywać, że nieco gorzej radził sobie Radeon, ale nie mamy co do tego pewności. Trudno też wyciągać na ten temat jakieś wnioski, bo nic nie wiemy np. o sterownikach, które mogą nie być jeszcze zoptymalizowane.
Co ciekawe, AMD wspominało też, że zestaw z ich kartą jest o 300 dolarów tańszy. Jeśli założymy, że monitory z FreeSync są średnio o około 200 dolarów tańsze od porównywalnych modeli z G-Sync, to można z tego wywnioskować, że za Vegę zapłacimy jakieś 100 dolarów mniej niż za GTX-a 1080. Czy będzie warto? Tego jeszcze nie wiemy, ale zaczynam mieć coraz większe wątpliwości.
Źródło: wccftech