Mysle ze tym razem im ten numer wypuszczenia modelu x04 jako topowego bokiem wyjdzie bo AMD jest zbyt blisko. Ogolnei slabo na papierze wyglada ten model jak na wersje 880.
O co dopiero bzdury o piratach, a teraz jadą po maksłelu, tak samo nie zgadli nic o hawajach i pierwszym maksłelu to tutaj też rozkalibrowany celownik.
Dowolnym zadaniem które przydzieli mu programista, np liczeniu Fizyki. Oczywiście jakie możliwości ten ARM będzie miał nie wiemy, oraz jakimi dysponować będzie zasobami, ale jest to dosyć ciekawe posunięcie.
Ja osobiście na początku stawiam głównie na przyśpieszenie obliczeń Fizyki w grach, przez GPU, a właściwie CPU w nim zawarte.
Zauważyć należy, że taka karta staje się właściwie niezależnym komputerem, więc może na GPU NVidi, będzie można opalić sobie Androida i pykać w gry z niego, ale to zależy jaki ARM tam wyląduje, i co te kombo będzie potrafić ?. Ale szykuje sie nam na pewno mała rewolucja. Chyba też powinni zmienić nazwę z GTX na XTegra, bo właściwie tym się te GPU stanie.
Na razie jest, plan rozpowszechnienia wśród programistów, architektury obecnie spotykanej właśnie w Tegrach czyli taki mobilny GTX+ARM, jak się nauczą to programować na PC, to tez chętnie sięgną po Tegry w Tabletach/Smartfonach i szybciej stworzą pod to uniwersalne silniki i biblioteki, a o to chodzi NVidi, żeby przerzucić jakimś sposobem koszty promowania Tegry na zewnętrzne firmy.
Dowolnym zadaniem które przydzieli mu programista, np liczeniu Fizyki. Oczywiście jakie możliwości ten ARM będzie miał nie wiemy, oraz jakimi dysponować będzie zasobami, ale jest to dosyć ciekawe posunięcie.
...
To jest przejaw słynnego projektu Denver, rozwijanego od kilku lat. Ogólne założenie było takie by karta mogła przejąć zadania przeznaczone dla cpu. Pewnie jednak jakieś ograniczenia będą i to Nvidia będzie decydować jakie. Programiści będą decydować dopiero w drugiej kolejności.
Dowolnym zadaniem które przydzieli mu programista, np liczeniu Fizyki. Oczywiście jakie możliwości ten ARM będzie miał nie wiemy, oraz jakimi dysponować będzie zasobami, ale jest to dosyć ciekawe posunięcie.
...
To jest przejaw słynnego projektu Denver, rozwijanego od kilku lat. Ogólne założenie było takie by karta mogła przejąć zadania przeznaczone dla cpu. Pewnie jednak jakieś ograniczenia będą i to Nvidia będzie decydować jakie. Programiści będą decydować dopiero w drugiej kolejności.
Programista, jak dostanie rdzeń A15 to będzie miał rdzeń A15 z jego mocą obliczeniową i możliwościami, jedyne co dawkowane będzie miał to zasoby, reszta to będzie kwestia optymalizacji kodu.
Nie będą decydować wcale w drugiej kolejności, bo jak NVida da im za slaby, lub źle zbalansowany układ to go oleją. Programista zawsze ma pełną swobodę wyboru i decyzji, poza architekturą sprzętu, ale nie w tym kontekście pisałem.
Czyli powtórka z rozrywki (GTX 670/680) wypuszczają średniaki z których robią high-end a za mniej więcej rok wypuszczą już ten docelowy high-end.
Tak jak wyżej ktoś napisał w ten deseń aby im AMD pojechało po rajtach za takie numery! Nie postęp - tylko kasa rządzi światem.
Nie będą decydować wcale w drugiej kolejności, bo jak NVida da im za slaby, lub źle zbalansowany układ to go oleją. Programista zawsze ma pełną swobodę wyboru i decyzji, poza architekturą sprzętu, ale nie w tym kontekście pisałem.
Zwulgaryzowałeś temat. Nvidia nie dostarczy im złego układu, natomiast dostarczy taki, który najlepiej będzie się sprawdzał w tych zadaniach, na których najbardziej zależy Nvidii. To wytwórca sprzętu wyznacza ramy działania, w których działa programista. Nic innego nie miałem na myśli.
Ja osobiście na początku stawiam głównie na przyśpieszenie obliczeń Fizyki w grach, przez GPU, a właściwie CPU w nim zawarte.
Czyli najbardziej złożoną obliczeniowo funkcję zaraz po renderowaniu samej grafiki chcesz przenieść z gotowej implementacji na mocny GPU, z procesora głównego komputera nawet, na relatywnie słabe rdzenie ARM? Moim zdaniem ten ARM będzie pełnił role administracyjne, zarządzał zadaniami przesyłanymi do GPU, pozwalał będzie ew. na jakieś proste sterowanie GPU przez programistę bez potrzeby odwoływania się do CPU komputera... Z drugiej strony mocny, wysoko taktowany ośmiordzeniowy ARMv8 na karcie graficznej nie będzie pewnie słabszy niż CPU w PS4/Xbox One, a resztę zostawiam Waszej wyobraźni
Ja osobiście na początku stawiam głównie na przyśpieszenie obliczeń Fizyki w grach, przez GPU, a właściwie CPU w nim zawarte.
Czyli najbardziej złożoną obliczeniowo funkcję zaraz po renderowaniu samej grafiki chcesz przenieść z gotowej implementacji na mocny GPU, z procesora głównego komputera nawet, na relatywnie słabe rdzenie ARM? Moim zdaniem ten ARM będzie pełnił role administracyjne, zarządzał zadaniami przesyłanymi do GPU, pozwalał będzie ew. na jakieś proste sterowanie GPU przez programistę bez potrzeby odwoływania się do CPU komputera... Z drugiej strony mocny, wysoko taktowany ośmiordzeniowy ARMv8 na karcie graficznej nie będzie pewnie słabszy niż CPU w PS4/Xbox One, a resztę zostawiam Waszej wyobraźni
To nie jest takie oczywiste. GPU bardzo słabo sobie radzi z zadaniami ktore wymagaja, rozgalezien. Glownie dlatego, ze GPU nie potrafi ich przewidywać.
Wiec jesli kod w ktoryms momencie moze nam sie rozgalezic, to GPU jedyne co jest w stanie zrobić, to brute forcem, przemielic kazda mozliwa wariacje, az trafi na te wlasciwa, co marnuje ogromne zasoby, wydzielane w postaci ciepła.
W przypadku grafiki nie ma takiego problemu, bo GPU po prosty dostaje pixel i ma cos z nim zrobic i przeslac dalej. Nie ma tu absolutnie zadnej nieprzewidywalnosci.
Tak samo ma sie sprawa z czesc algorytmów do symulacji fizyki.
GPU np. wogole nie jest w sobie w stanie poradzic z czyms takim jak detekcja kolizji, poza renderowaną klatka (off screen). Bo zwyczajnie nie posiada żadnych informacji na temat tego co sie tam znajduje.
Tak bliskie umieszczenie dodatkowych rdzeni ogolnego przeznaczenia, moze umozliwic powstanie nowych algorytmów, bo komunikacja pomiedzy rdzeniem ARM a GPU bedzie duzo wydajniejsza, niz ma to miejsce w tej chwili pomiedzy GPU a CPU.
A co najwazniejsze zarowno GPU jak i ARM beda miały wspolna przestrzeń adresową w pamieci, wiec będą mogły nazwaje operowac na swoich danych, bez potrzeby ich kopiowania.
Nie będą decydować wcale w drugiej kolejności, bo jak NVida da im za slaby, lub źle zbalansowany układ to go oleją. Programista zawsze ma pełną swobodę wyboru i decyzji, poza architekturą sprzętu, ale nie w tym kontekście pisałem.
Zwulgaryzowałeś temat. Nvidia nie dostarczy im złego układu, natomiast dostarczy taki, który najlepiej będzie się sprawdzał w tych zadaniach, na których najbardziej zależy Nvidii. To wytwórca sprzętu wyznacza ramy działania, w których działa programista. Nic innego nie miałem na myśli.
Powiedz mi jakie zastosowania narzuci mi jako programiście NVida jak do dyspozycji będę miał zwyczajny normalny procesor ARM ? Oczywiście poza ilością dostępnej mocy obliczeniowej i pamięci oraz dostępę dodatkowych zasobów sprzętowych.
Jak napiszę sobie program do liczenia geometri przestrzeni, to będzie mi liczył to co chcę, jak napisze program do liczenia owieczek na pastwisku, to będzie liczył mi owieczki. Mając dostępny normalny uniwersalny procesor, ograniczeniem są tylko moje umiejętności, i jego moc Nvidia niczego w kwestii zastosowań nie narzuci bo się nie da. A z drugiej strony nie będą chcieli zostawić tylnej furtki AMD.
PS. Gdybym chciał zwulgaryzować temat użyłbym innego słowa niż olać.
Ten news jest na wszystkich polskich i zagranicznych serwisach. Zresztą bardzo dobrze, lepsza gorąca plotka niż totalny brak informacji.
A jak ci się nie podoba PClab to idź stąd i nie zawracaj bzdurami gitary.
Dowolnym zadaniem które przydzieli mu programista, np liczeniu Fizyki. Oczywiście jakie możliwości ten ARM będzie miał nie wiemy, oraz jakimi dysponować będzie zasobami, ale jest to dosyć ciekawe posunięcie.
Ja osobiście na początku stawiam głównie na przyśpieszenie obliczeń Fizyki w grach, przez GPU, a właściwie CPU w nim zawarte.
Zauważyć należy, że taka karta staje się właściwie niezależnym komputerem, więc może na GPU NVidi, będzie można opalić sobie Androida i pykać w gry z niego, ale to zależy jaki ARM tam wyląduje, i co te kombo będzie potrafić ?. Ale szykuje sie nam na pewno mała rewolucja. Chyba też powinni zmienić nazwę z GTX na XTegra, bo właściwie tym się te GPU stanie.
Na razie jest, plan rozpowszechnienia wśród programistów, architektury obecnie spotykanej właśnie w Tegrach czyli taki mobilny GTX+ARM, jak się nauczą to programować na PC, to tez chętnie sięgną po Tegry w Tabletach/Smartfonach i szybciej stworzą pod to uniwersalne silniki i biblioteki, a o to chodzi NVidi, żeby przerzucić jakimś sposobem koszty promowania Tegry na zewnętrzne firmy.
Dowolnym zadaniem które przydzieli mu programista, np liczeniu Fizyki. Oczywiście jakie możliwości ten ARM będzie miał nie wiemy, oraz jakimi dysponować będzie zasobami, ale jest to dosyć ciekawe posunięcie.
...
To jest przejaw słynnego projektu Denver, rozwijanego od kilku lat. Ogólne założenie było takie by karta mogła przejąć zadania przeznaczone dla cpu. Pewnie jednak jakieś ograniczenia będą i to Nvidia będzie decydować jakie. Programiści będą decydować dopiero w drugiej kolejności.
Dowolnym zadaniem które przydzieli mu programista, np liczeniu Fizyki. Oczywiście jakie możliwości ten ARM będzie miał nie wiemy, oraz jakimi dysponować będzie zasobami, ale jest to dosyć ciekawe posunięcie.
...
To jest przejaw słynnego projektu Denver, rozwijanego od kilku lat. Ogólne założenie było takie by karta mogła przejąć zadania przeznaczone dla cpu. Pewnie jednak jakieś ograniczenia będą i to Nvidia będzie decydować jakie. Programiści będą decydować dopiero w drugiej kolejności.
Programista, jak dostanie rdzeń A15 to będzie miał rdzeń A15 z jego mocą obliczeniową i możliwościami, jedyne co dawkowane będzie miał to zasoby, reszta to będzie kwestia optymalizacji kodu.
Nie będą decydować wcale w drugiej kolejności, bo jak NVida da im za slaby, lub źle zbalansowany układ to go oleją. Programista zawsze ma pełną swobodę wyboru i decyzji, poza architekturą sprzętu, ale nie w tym kontekście pisałem.
Tak jak wyżej ktoś napisał w ten deseń aby im AMD pojechało po rajtach za takie numery! Nie postęp - tylko kasa rządzi światem.
Nie będą decydować wcale w drugiej kolejności, bo jak NVida da im za slaby, lub źle zbalansowany układ to go oleją. Programista zawsze ma pełną swobodę wyboru i decyzji, poza architekturą sprzętu, ale nie w tym kontekście pisałem.
Zwulgaryzowałeś temat. Nvidia nie dostarczy im złego układu, natomiast dostarczy taki, który najlepiej będzie się sprawdzał w tych zadaniach, na których najbardziej zależy Nvidii. To wytwórca sprzętu wyznacza ramy działania, w których działa programista. Nic innego nie miałem na myśli.
Ja osobiście na początku stawiam głównie na przyśpieszenie obliczeń Fizyki w grach, przez GPU, a właściwie CPU w nim zawarte.
Czyli najbardziej złożoną obliczeniowo funkcję zaraz po renderowaniu samej grafiki chcesz przenieść z gotowej implementacji na mocny GPU, z procesora głównego komputera nawet, na relatywnie słabe rdzenie ARM? Moim zdaniem ten ARM będzie pełnił role administracyjne, zarządzał zadaniami przesyłanymi do GPU, pozwalał będzie ew. na jakieś proste sterowanie GPU przez programistę bez potrzeby odwoływania się do CPU komputera... Z drugiej strony mocny, wysoko taktowany ośmiordzeniowy ARMv8 na karcie graficznej nie będzie pewnie słabszy niż CPU w PS4/Xbox One, a resztę zostawiam Waszej wyobraźni
Jeśli to prawda to będą szczycić się znikomym zużyciem energii w IDLE, Pulpit czy jakiś film albo aplikacje biurowe.
Może to i dobrze ale mam troszkę inne pytanie.
Jeśli w lipcu ma wyjść GM204 to kiedy zobaczymy pełny Maxwell?
Spalił się przez słaby zasilacz
Ja osobiście na początku stawiam głównie na przyśpieszenie obliczeń Fizyki w grach, przez GPU, a właściwie CPU w nim zawarte.
Czyli najbardziej złożoną obliczeniowo funkcję zaraz po renderowaniu samej grafiki chcesz przenieść z gotowej implementacji na mocny GPU, z procesora głównego komputera nawet, na relatywnie słabe rdzenie ARM? Moim zdaniem ten ARM będzie pełnił role administracyjne, zarządzał zadaniami przesyłanymi do GPU, pozwalał będzie ew. na jakieś proste sterowanie GPU przez programistę bez potrzeby odwoływania się do CPU komputera... Z drugiej strony mocny, wysoko taktowany ośmiordzeniowy ARMv8 na karcie graficznej nie będzie pewnie słabszy niż CPU w PS4/Xbox One, a resztę zostawiam Waszej wyobraźni
To nie jest takie oczywiste. GPU bardzo słabo sobie radzi z zadaniami ktore wymagaja, rozgalezien. Glownie dlatego, ze GPU nie potrafi ich przewidywać.
Wiec jesli kod w ktoryms momencie moze nam sie rozgalezic, to GPU jedyne co jest w stanie zrobić, to brute forcem, przemielic kazda mozliwa wariacje, az trafi na te wlasciwa, co marnuje ogromne zasoby, wydzielane w postaci ciepła.
W przypadku grafiki nie ma takiego problemu, bo GPU po prosty dostaje pixel i ma cos z nim zrobic i przeslac dalej. Nie ma tu absolutnie zadnej nieprzewidywalnosci.
Tak samo ma sie sprawa z czesc algorytmów do symulacji fizyki.
GPU np. wogole nie jest w sobie w stanie poradzic z czyms takim jak detekcja kolizji, poza renderowaną klatka (off screen). Bo zwyczajnie nie posiada żadnych informacji na temat tego co sie tam znajduje.
Tak bliskie umieszczenie dodatkowych rdzeni ogolnego przeznaczenia, moze umozliwic powstanie nowych algorytmów, bo komunikacja pomiedzy rdzeniem ARM a GPU bedzie duzo wydajniejsza, niz ma to miejsce w tej chwili pomiedzy GPU a CPU.
A co najwazniejsze zarowno GPU jak i ARM beda miały wspolna przestrzeń adresową w pamieci, wiec będą mogły nazwaje operowac na swoich danych, bez potrzeby ich kopiowania.
Nie będą decydować wcale w drugiej kolejności, bo jak NVida da im za slaby, lub źle zbalansowany układ to go oleją. Programista zawsze ma pełną swobodę wyboru i decyzji, poza architekturą sprzętu, ale nie w tym kontekście pisałem.
Zwulgaryzowałeś temat. Nvidia nie dostarczy im złego układu, natomiast dostarczy taki, który najlepiej będzie się sprawdzał w tych zadaniach, na których najbardziej zależy Nvidii. To wytwórca sprzętu wyznacza ramy działania, w których działa programista. Nic innego nie miałem na myśli.
Powiedz mi jakie zastosowania narzuci mi jako programiście NVida jak do dyspozycji będę miał zwyczajny normalny procesor ARM ? Oczywiście poza ilością dostępnej mocy obliczeniowej i pamięci oraz dostępę dodatkowych zasobów sprzętowych.
Jak napiszę sobie program do liczenia geometri przestrzeni, to będzie mi liczył to co chcę, jak napisze program do liczenia owieczek na pastwisku, to będzie liczył mi owieczki. Mając dostępny normalny uniwersalny procesor, ograniczeniem są tylko moje umiejętności, i jego moc Nvidia niczego w kwestii zastosowań nie narzuci bo się nie da. A z drugiej strony nie będą chcieli zostawić tylnej furtki AMD.
PS. Gdybym chciał zwulgaryzować temat użyłbym innego słowa niż olać.
Wątpliwe, bo by złącza w końcu nie wytrzymały.