nadal uważam to za cofanie się technologicznie, pobór mocy w najgorszym przypadku powinien być taki sam jak w poprzednich generacjach, a przecież powinien być postep i być mniejszy. Jednakże NV będzie stała w miejscu, co z tego ze układ bedzie wydajniejszy od poprzedników o ileś procent jeśli stosunek mocy do wydajności będzie taki sam jak w poprzedniej generacji albo nawet i gorszy
nadal uważam to za cofanie się technologicznie, pobór mocy w najgorszym przypadku powinien być taki sam jak w poprzednich generacjach. Jednakże NV będzie stała w miejscu, co z tego ze bedzie wydajniejsze od poprzedników o ileś procent jak stosunek mocy do wydajności będzie taki sam jak w poprzedniej generacji albo nawet i gorszy
To zależy. Schodzenie z nanometrami w dół, które oznaczałoby jednocześnie zejście z poborem prądu to mit, w który wierzy garstka.
20 lat temu miałeś układy wykonane w grubo ponad 100 nm z topową na tamte czasy wydajnością. O zasilaczach 500 W i więcej nikt nie słyszał, a całość była chłodzona jednym malutkim piździkiem na CPU. Airflow podchodziło pod voodoo.
Dziś masz układy wydajniejsze, wykonane w tak małych technologiach, że na tamte czasy nawet naukowcom się nie śniły. Temperatury pozostały te same przy czym, aby je uzyskać, trzeba kupić budę wielkości lodówki i wypchać ją wiatrakami, na CPU posadzić 5 kilo radiodora albo wszystko wrzucić do wanny z wodą. Prądu żre tyle co 3 komputery kiedyś.
Producenci dawno temu uznali, że temperatury i zapotrzebowanie na energię jest optymalne, więc korzyści z niższego procesu są wykorzystywane do upchania większej liczby tranzystorów i podniesienia wydajnosci.
Dwóch rzeczy jednocześnie nie będziesz miał nigdy. Albo wydajność, albo dreptanie w miejscu.
nadal uważam to za cofanie się technologicznie, pobór mocy w najgorszym przypadku powinien być taki sam jak w poprzednich generacjach. Jednakże NV będzie stała w miejscu, co z tego ze bedzie wydajniejsze od poprzedników o ileś procent jak stosunek mocy do wydajności będzie taki sam jak w poprzedniej generacji albo nawet i gorszy
Tego nie wiemy.
Moim zdaniem jeśli Nvidia chce utrzymać wysokie ceny to musi wypuść coś na prawdę mocnego, bo nowe konsole mają specyfikację obecnego topu. Cen co prawda jeszcze nie znamy, ale nawet 600$/€ to dużo jak za konsole (ostatnie kosztowały 400-500$), a za tyle to można co najwyżej GPU z topu kupić, a konsola ma już wszystko w zestawie.
Ale tak na prawdę zobaczymy jak już wyjdą.
Mnie pobór prądu nie przeraża, bo potrzebuję GPU wymienić w desktopie, więc jak dla mnie to mogą dać nawet i 400W byle wydajnie.
Ten system chłodzenia wydaje mi się dziwacznie zaprojektowany.
Układ żeberek sugeruje, że aktywnie chłodzona będzie tylko ta część bezpośrednio pod i obok wiatraka a cała reszta pasywnie.
Nie wiem czy to takie dobre rozwiązanie, które ma być w stanie rozproszyć do 350W ciepła.
No dziwne trochę, że ta środkowa część jest odgrodzona od wentylatorów i taka pasywna - żeberka niby ustawione pod kątem, a jednak powietrze od wentyli nie ma jak tam wepchnąć. Fajnie byłoby dowiedzieć się od inżynierów, dlaczego akurat tam jest przegroda - na poprzednich zdjęciach wydawały się połączone.
'Schodzenie z nanometrami w dół, które oznaczałoby jednocześnie zejście z poborem prądu to mit, w który wierzy garstka.' - Poziom wiedzy i zadufanie: poziom Apple.
Zagadka, co pobiera więcej energii?
1. Procesor zasilany napięciem 5V i o POBORZE prądu 21A?
2. Procesor zasilany napięciem 1V i o POBORZE prądu 100A?
Oczywiście że schodzenie z nm w dół oznacza zmniejszenie energii traconej w pojedynczym tranzystorze.
Pentium 4 EE 3,73GHz był wykonany w 90nm a żarł ponad 100W
Dziś procesor pobierający 100W wykonany w 7-14nm jest 50-100 krotnie wydajniejszy od powyższego P4EE.
Chociaż obecne wyżyłowane procesy technologiczne już tak ładnie się nie skalują, ponieważ zbyt mały tranzystor nie chce się tak ładnie włączać i wyłączać jak by się chciało. Koty Schrodingera i inne tunelowe potworki wychodzą na powierzchnię.
Trochę dziwne to chłodnie. Ale najważniejsze, że te plotki wydaja się coraz bardziej prawdopodobne. Mam nadzieję, że to żyłowanie wydajności (pobór energii) jest podyktowane zaskakująco dobrą wydajnością nadchodzących GPU AMD. Oby wróciła wyrównana konkurencja na rynku GPU
Trochę dziwne to chłodnie. Ale najważniejsze, że te plotki wydaja się coraz bardziej prawdopodobne. Mam nadzieję, że to żyłowanie wydajności (pobór energii) jest podyktowane zaskakująco dobrą wydajnością nadchodzących GPU AMD. Oby wróciła wyrównana konkurencja na rynku GPU
Oj tam, oj tam. Co z tego, że dziwne, najważniejsze, że drogie fani Apple tfu. Nvidii będą zachwyceni.
Ten system chłodzenia wydaje mi się dziwacznie zaprojektowany.
Układ żeberek sugeruje, że aktywnie chłodzona będzie tylko ta część bezpośrednio pod i obok wiatraka a cała reszta pasywnie.
Nie wiem czy to takie dobre rozwiązanie, które ma być w stanie rozproszyć do 350W ciepła.
Też się nad tym zastanawiam. Wygląda na to, że te 2 części na ukos są w pełni pasywne. Jeżeli w tym srebrnym profilu o kształcie 8 są otwory, to teoretycznie wentylator nad GPU by mógł przez te ukośne wydmuchiwać powietrze. Natomiast wentylator na sekcją zasilania dmuchałby przez te czarne użebrowanie w kształcie litery V.
Ten system chłodzenia wydaje mi się dziwacznie zaprojektowany.
Układ żeberek sugeruje, że aktywnie chłodzona będzie tylko ta część bezpośrednio pod i obok wiatraka a cała reszta pasywnie.
Nie wiem czy to takie dobre rozwiązanie, które ma być w stanie rozproszyć do 350W ciepła.
Mam wrażenie, że większość powietrza jest wtłaczana pod przegrodą w kształcie X I wywiewana przez tylny radiator prostopadle do karty, reszta powietrza idzie bocznymi radiatorami. Tyle, że to będzie wymagało dobrego przewiewu w obudowie i przynajmniej 2 slotów przerwy, czyli w sumie karta będzie zajmowała 4 sloty albo się się będzie przegrzewać.
Ja myślę, że NVidia będzie nadal promować swoją wersję RT I 3090 będzie sobie dobrze radzić z RT 4k a to będzie powodowało taki pobór mocy bo same RT cores pociągną 150W. grach bez RT będzie 200W. Big Navi będzie pewnie miało podobną wydajność bez RT I za mniej niż pół ceny, za to w nielicznych grach z RT będzie daleko w tyle. Tyle, że Big Navi będzie w konsolach i to raczej uproszczona wersja RT AMD będzie preferowana przez developerów.
Tyle, że Big Navi będzie w konsolach i to raczej uproszczona wersja RT AMD będzie preferowana przez developerów.
Analogiczna teza była stawiana te 8 lat temu, że niby AMD w konsolach = AMD zjedzie Nvidie w PC, bo wszyscy będą optymalizować pod AMD. Jak wyszło wszyscy widzą. Druga sprawa, PS5 zapewne będzie miało własne API (następca GNM/GNMX), więc nie wiadomo czy tutaj będzie kompatybilność z DirectX/Vulkan (PC). Xbox powinien mieć DX12Ultimate, które będzie wspierane przez obu producentów GPU.
Nowe konsole mają specyfikację obecnego topu? Nie nie maja oprócz szybkich dysków SSD. Zarówno 2080 Ti, TITAN RTX, są wydajniejszymi GPU to jeszcze mamy 12, 16 rdzeniowe procesory, pomijając rynek serwerowy. Oczywiście wydajność na poziomie 2080 to jest coś, ale nie liczyłbym aby PS5 kosztował tylko 2500zł.
To zależy. Schodzenie z nanometrami w dół, które oznaczałoby jednocześnie zejście z poborem prądu to mit, w który wierzy garstka.
20 lat temu miałeś układy wykonane w grubo ponad 100 nm z topową na tamte czasy wydajnością. O zasilaczach 500 W i więcej nikt nie słyszał, a całość była chłodzona jednym malutkim piździkiem na CPU. Airflow podchodziło pod voodoo.
Dziś masz układy wydajniejsze, wykonane w tak małych technologiach, że na tamte czasy nawet naukowcom się nie śniły. Temperatury pozostały te same przy czym, aby je uzyskać, trzeba kupić budę wielkości lodówki i wypchać ją wiatrakami, na CPU posadzić 5 kilo radiodora albo wszystko wrzucić do wanny z wodą. Prądu żre tyle co 3 komputery kiedyś.
Producenci dawno temu uznali, że temperatury i zapotrzebowanie na energię jest optymalne, więc korzyści z niższego procesu są wykorzystywane do upchania większej liczby tranzystorów i podniesienia wydajnosci.
Dwóch rzeczy jednocześnie nie będziesz miał nigdy. Albo wydajność, albo dreptanie w miejscu.
Tego nie wiemy.
Moim zdaniem jeśli Nvidia chce utrzymać wysokie ceny to musi wypuść coś na prawdę mocnego, bo nowe konsole mają specyfikację obecnego topu. Cen co prawda jeszcze nie znamy, ale nawet 600$/€ to dużo jak za konsole (ostatnie kosztowały 400-500$), a za tyle to można co najwyżej GPU z topu kupić, a konsola ma już wszystko w zestawie.
Ale tak na prawdę zobaczymy jak już wyjdą.
Mnie pobór prądu nie przeraża, bo potrzebuję GPU wymienić w desktopie, więc jak dla mnie to mogą dać nawet i 400W byle wydajnie.
Układ żeberek sugeruje, że aktywnie chłodzona będzie tylko ta część bezpośrednio pod i obok wiatraka a cała reszta pasywnie.
Nie wiem czy to takie dobre rozwiązanie, które ma być w stanie rozproszyć do 350W ciepła.
To zależy. Schodzenie z nanometrami w dół, które oznaczałoby jednocześnie zejście z poborem prądu to mit, w który wierzy garstka.
............
Dwóch rzeczy jednocześnie nie będziesz miał nigdy. Albo wydajność, albo dreptanie w miejscu.
W samo sedno, nic dodać nic ująć. Choć zapomniałeś jeszcze dodać że niższy proces to niższe temperatury co tez jest mitem.
Zagadka, co pobiera więcej energii?
1. Procesor zasilany napięciem 5V i o POBORZE prądu 21A?
2. Procesor zasilany napięciem 1V i o POBORZE prądu 100A?
Oczywiście że schodzenie z nm w dół oznacza zmniejszenie energii traconej w pojedynczym tranzystorze.
Pentium 4 EE 3,73GHz był wykonany w 90nm a żarł ponad 100W
Dziś procesor pobierający 100W wykonany w 7-14nm jest 50-100 krotnie wydajniejszy od powyższego P4EE.
Chociaż obecne wyżyłowane procesy technologiczne już tak ładnie się nie skalują, ponieważ zbyt mały tranzystor nie chce się tak ładnie włączać i wyłączać jak by się chciało. Koty Schrodingera i inne tunelowe potworki wychodzą na powierzchnię.
Co to jest myślenie? - Poprawne wnioskowanie.
Oj tam, oj tam. Co z tego, że dziwne, najważniejsze, że drogie fani Apple tfu. Nvidii będą zachwyceni.
Układ żeberek sugeruje, że aktywnie chłodzona będzie tylko ta część bezpośrednio pod i obok wiatraka a cała reszta pasywnie.
Nie wiem czy to takie dobre rozwiązanie, które ma być w stanie rozproszyć do 350W ciepła.
Układ żeberek sugeruje, że aktywnie chłodzona będzie tylko ta część bezpośrednio pod i obok wiatraka a cała reszta pasywnie.
Nie wiem czy to takie dobre rozwiązanie, które ma być w stanie rozproszyć do 350W ciepła.
Mam wrażenie, że większość powietrza jest wtłaczana pod przegrodą w kształcie X I wywiewana przez tylny radiator prostopadle do karty, reszta powietrza idzie bocznymi radiatorami. Tyle, że to będzie wymagało dobrego przewiewu w obudowie i przynajmniej 2 slotów przerwy, czyli w sumie karta będzie zajmowała 4 sloty albo się się będzie przegrzewać.
Poprzednia generacja podczas premiery miała w sobie GPU ze średniej półki.