komentarze
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2013.01.22, 02:30
Eryk Piast @ 2013.01.22 02:06  Post: 630738
Cztery moduły 'Piledriver' to chyba jednak bardziej prawdopodobny scenariusz od Jaguara. Ale co ja tam wiem...
Ale jest mowa o 8 całkowicie osobnych wątkach. A w piledriverze masz cały frontend współdzielony i nie masz na sztywno 2 instrukcji w jednym cyklu na wątek. No i cache. Tutaj mowa o 32kB na instrukcje i 32kB na dane, a w piledriverze masz 16kB na dane i 64kB na instrukcje dla modułu Inna jest też struktura L2 bo masz 2MB L2 współdzielone na 1 moduł 2 wątkowy, a nie na 4. A opis jak ulał pasuje do jaguara - 2x 4 rdzenie współdzielą 2MB L2, 2x32L1, 2 instrukcje na cykl i 8 rdzen nie współdzielące żadnych zasobów.

Nie mniej nic nie jest potwierdzone i ta specyfikacja równie dobrze może być wyssana z palca.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482013.01.22, 02:33
-4#82
nadro-linux @ 2013.01.22 01:44  Post: 630736
Dajmy na to OpenGL'a... Tutaj nic nie jest przetwarzane przez CPU

Jest, tylko nie jest to stały narzut i zależy tylko od tego jak to chcą zrobić programiści sterownika (jeśli chcą to mogą mieć większy narzut niż w DX10). W praktyce narzut nie jest duży, ale jak najbardziej jest (i w dodatku inny w AMD i inny u Nv, bo inaczej przetwarzają dane które dostarczasz sterownikom).

nadro-linux @ 2013.01.22 01:44  Post: 630736
wszystko leci bezpośrednio do sterownika a ten zarządza stanem GPU (jest to w pełni komunikacja na linii CPU->GPU i o tym piszę od samego początku).

Nie - sterowniki mają dodatkowy narzut (w wypadku OpenGL to cały narzut jest tu), i one dodatkowo jeszcze spędzają trochę czasu na CPU (niezależnie czy to DX czy OpenGL) i dopiero później przekazują jeszcze do niższego poziomu (innaj części sterownika) który to jest już wspólny dla wszystkich API i od dopiero się z kartą komunikuje.

nadro-linux @ 2013.01.22 01:44  Post: 630736
W tym miejscu wydajność drastycznie spada (przełączanie stanów GPU jest bardzo kosztowne o czym też gadam od pierwszego postu).

Przełączenie stanów jest drogie niezależnie czy to konsola czy PC (decyduje arch karty graficznej), chociaż w wypadku PS3 można się pozbyć narzutu przed komunikacją z GPU.

nadro-linux @ 2013.01.22 01:44  Post: 630736
Jak duża jest skala problemu dobrze widać np. na przykładzie instancing'u (tak, więc nie pisz, że na OGL wywoływania są tanie bo tak nie jest, aczkolwiek są tańsze niż na DX)

Są tanie w porównaniu do innych API jak i konsol (odliczając użycie CB bezpośrednio, bez narzutu PSGL).
Instancing ładnie pokazuje, podobnie jak sortowanie po materiałach/teksturach i stosowanie przykładowo multidraw. Tylko tak samo instancing ukazuje przykładowo w PS3.

nadro-linux @ 2013.01.22 01:44  Post: 630736

Aha co do PS3... PSGL nikt nie używa, właśnie libGCM jest warstwą niższego poziomu z której masz dostęp właśnie do command buffor'a :P Stąd też można powiedzieć, że na PS3 OGL'a nie ma (niby jest, ale bezużyteczny).

Tak - na PS3 nikt OGLa nie używa, bo jest jeden sprzęt i można robić bardzo niskopoziomowo. Pod PC takie API nie ma sensu, ze względu na mnogość sprzętu i masz taki narzut jak PSGL (jest wybór więc korzysta się z GCM) czy DX9 (nie ma wyboru jak w PS3 i trzeba się pogodzić z narzutem API) w Xbox360.
arvalZobacz profil
Poziom ostrzeżenia: 0%
arval2013.01.22, 03:23
-5#83
skoti48 @ 2013.01.22 00:14  Post: 630713
arval @ 2013.01.22 00:12  Post: 630710
Xbox360 ma pamięć RAM szyfrowaną
http://www.youtube.com/watch?v=uxjpmc8ZIxM
Nie chce mi się marketingowego bełkotu słuchać - jeśli chcesz coś wartościowego podesłać to papierki techniczne możesz podawać, a nie bzdurne filmiki


WOW. Widzę że jesteś 'wielkim specjalistą od wszystkiego'. Przy tobie ludzie z którzy złamali zabezpieczenia Xbox360, PS3 to płotki. A konferencje hakerskie to marketingowy bełkot... Nie doceniłem twojego geniuszu.

Myślę że dalsza dyskusja nie ma sensu. Bo jaki sens ma dyskusja z kimś kto nie czyta odpowiedzi :)
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482013.01.22, 03:33
-5#84
arval @ 2013.01.22 03:23  Post: 630745

WOW. Widzę że jesteś 'wielkim specjalistą od wszystkiego'. Przy tobie ludzie z którzy złamali zabezpieczenia Xbox360, PS4 to płotki. A specyfikacja zabezpieczeń to marketingowy bełkot... Nie doceniłem twojego geniuszu.

Myślę że dalsza dyskusja nie ma sensu :)

Rozbawiłeś mnie przednio, bo jak zwykle masz swoje wyimaginowane twierdzenia nie poparte niczym. Nigdzie nic z tego nie pisałem, po prostu mam zasadę, że linki na yt omijam z daleka, tym bardziej te podawane w komentarzach, bo zazwyczaj nie mają zadnego sensu, a jedynie jest to strata czasu (technologiczne video są umieszczane na innych portalach). Jedyne co na yt jest sensowne to info z konferencji google, a ten temat nie ma nic z google wspólnego. Ale dajmy na to, że jest to super profesjonalna konferencja (nie bede wchodzil tam aby to sprawdzic dla twojej statyswakcji) to bardzo powierzchowna trwała by na ten temat 2h, a nie mam zamiaru tracic tyle czasu na sprawdzanie czy cos zle zrozumiales - przykłądowo mogli powiedzieć, że w Xbox 360 stosują szyfrowanie pamięci - to czego to dokładnie dotyczy, czy tylko fragmentów istotnych dla zabezpieczeń (ma to sens, i nie ma problemu z żadnymi prockami tu) czy ogólnie całość jak zasoby gry (zupełnie bez sensu) to już zapewne nie jest dopowiedziane, albo to olałeś - podaj rzetelny papierek, bo konferencje są z założenia powierzchowne. Jeśli chcesz cos dodać to podaj whitepapier, TR lub przynajmniej inne źródło dobrze opracowane.
nadro-linuxZobacz profil
Poziom ostrzeżenia: 0%
nadro-linux2013.01.22, 03:41
skoti48 @ 2013.01.22 02:33  Post: 630742
nadro-linux @ 2013.01.22 01:44  Post: 630736
Dajmy na to OpenGL'a... Tutaj nic nie jest przetwarzane przez CPU

Jest, tylko nie jest to stały narzut i zależy tylko od tego jak to chcą zrobić programiści sterownika (jeśli chcą to mogą mieć większy narzut niż w DX10). W praktyce narzut nie jest duży, ale jak najbardziej jest (i w dodatku inny w AMD i inny u Nv, bo inaczej przetwarzają dane które dostarczasz sterownikom).

Miałem co prawda zakończyć dyskusję na poprzednim poście, ale ... tym razem wyrywasz zdanie z kontekstu (wtedy zmienia ono sens), oryginał brzmiał:
Tutaj nic nie jest przetwarzane przez CPU wszystko leci bezpośrednio do sterownika a ten zarządza stanem GPU

Podałem przykład z OGL po to, żeby odciąć się od narzutu jaki wnosi DX jeszcze przed fazą sterownika, tym samym uprościć sytuację, bo cały czas pisałeś o tym narzucie DX'a. Sprawą oczywistą jest, że sterownik w jakiś sposób przetwarza informacje na CPU zanim wyśle je do GPU oraz to, że narzut jest różny w zależności od sterów (wystarczy, że ktoś czytał, tematy o tym, że stery NV wymagają mocniejszego procka niż AMD, aby miał jako taką świadomość tej sytuacji)...

Reasumując komunikacja (niech każdy nazywa to jak chce, wiadomo o co chodzi, dla mnie jak najbardziej w takim przypadku słowo komunikacja jest na miejscu) CPU->GPU (zwłaszcza w fazie sterownika, a w przypadku DX'a również w fazie przetwarzania tego API) zabija wydajność. API DX9/OGL2.x (bez rozszerzeń dostępnych tylko dla sprzętów zgodnych z DX10+/OGL3+) mają jednak sporo ograniczeń w eliminacji tego problemu, stąd też bardzo podobają mi się zmiany w PC/konsolach, które spowodują odcięcie się od tego modelu programowania i przetwarzania sceny niemal wyłącznie na GPU (likwidujemy wtedy problem narzutu CPU->GPU, o którym już mi się znudziło gadać, bo w sumie każdy kto chce to może przeczytać całą dyskusję i ją sobie przeanalizować).

Na dobrą sprawę w tym ostatnim poście pisałeś o tym samym co ja, z tym, że wyrywając zdania z kontekstu ukazywałeś niektóre moje wypowiedzi jako bzdury, a swoje jako sprostowanie... Nie wiem czemu prowadzenie dyskusji w taki sposób ma służyć, ale cóż... każdy ma swój styl prowadzenia rozmów.

PS. Co do PSGL to nie pisałem, że na PC coś w stylu libGCM ma sens. Sprostowałem tylko podaną przez Ciebie informację, że libGCM nic nie wnosi do kwestii OGL'a na PS3, a w rzeczywistości wnosi tyle, że OGL tam jest zbędny, więc całkiem sporo jak na moje (dyskusja o PS3 zaczęła się od tego, że stwierdziłeś, iż wywołania na PS3 są tanie bo korzysta się tam z OGL'a, a w praktyce co zresztą później przyznałeś OGL'a tam się nie używa, bo całość załatwia libGCM).
Konsole mają niskie narzuty, bo korzystają z OpenGL lub DX9

W PS3 masz tak zwany PSGL czyli GLES1.1 z wyciętym fixed pipeline językiem Cg i kilkoma zmianami. To, że masz libGCM nic nie zmienia - z nim komunikuje się PSGL i masz jak na PC - podobnie masz w PC

Swoją drogą powyższy cytat edytowałeś bo w oryginalnej formie brzmiał on inaczej, ciężko było zrozumieć co miałeś na myśli :P
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482013.01.22, 04:20
-3#86
nadro-linux @ 2013.01.22 03:41  Post: 630747

Miałem co prawda zakończyć dyskusję na poprzednim poście, ale ... tym razem wyrywasz zdanie z kontekstu (wtedy zmienia ono sens), oryginał brzmiał
...
Podałem przykład z OGL po to, żeby odciąć się od narzutu jaki wnosi DX jeszcze przed fazą sterownika, tym samym uprościć sytuację, bo cały czas pisałeś o tym narzucie DX'a.

Wyrwałem z kontekstu aby była jasność, że rozmawiamy o tym samym, bo wydawało mi się, że się nie rozumiemy. Przed sterownikiem komunikującym się bezpośrednio ze sprzętem jest implementacja OpenGL, która jest tu biblioteką (implementacją API przekazującą dane dopiero później do sterownika). I ta implementacja OpenGL też ma swój narzut (nie ma jeszcze dodatkowego garba jak DX, ale jednak narzut CPU istnieje jeszcze przed komunikacją z GPU).


nadro-linux @ 2013.01.22 03:41  Post: 630747

niech każdy nazywa to jak chce, wiadomo o co chodzi, dla mnie jak najbardziej w takim przypadku słowo komunikacja jest na miejscu

Ja wolę nazywać to tak jak w papierkach od producentów kart graficznych 'CPU overhead' to zawsze narzut na CPU, nawet jeśli występuje to w sterownikach jest to ograniczenie CPU lub softu (w tym sterowników). Jeśli problemem jest komunikacja CPU -> GPU (za dużo danych zapycha przepustowość komunikacji na linii CPU -> GPU) jest to 'Throttling I/O', jeśli zaś wąskim gardłem jest karta to na GPU trzeba zwalić winę.
Nie lubię za to niedomówień w stylu jakaś funkcja ma 'CPU Overhead' jeszcze zanim sterownik komunikujący się bezpośrednio z kartą dostanie dane i nazywanie tego problemem z komunikacją CPU->GPU - w ten sposób można powiedzieć, że DX nie ma narzutu na CPU, bo jest też elementem komunikacji programu na CPU komunikującego się przez API z GPU.

nadro-linux @ 2013.01.22 03:41  Post: 630747
API DX9/OGL2.x (bez rozszerzeń dostępnych tylko dla sprzętów zgodnych z DX10+/OGL3+) mają jednak sporo ograniczeń w eliminacji tego problemu, stąd też bardzo podobają mi się zmiany w PC/konsolach, które spowodują odcięcie się od tego modelu programowania i przetwarzania sceny niemal wyłącznie na GPU (likwidujemy wtedy problem narzutu CPU->GPU, o którym już mi się znudziło gadać, bo w sumie każdy kto chce to może przeczytać całą dyskusję i ją sobie przeanalizować).

Nie są takie zupełnie bezbronne bo jednak takie Dx9 pozwalało na instancing. MI się bardzo podoba kierunek zmian w OpenGL - mimo zachowania niskiego CPU Overhead dostajemy bardzo dobry instancing, multi draw indirect, transform feedback...

nadro-linux @ 2013.01.22 03:41  Post: 630747
Na dobrą sprawę w tym ostatnim poście pisałeś o tym samym co ja, z tym, że wyrywając zdania z kontekstu ukazywałeś niektóre moje wypowiedzi jako bzdury, a swoje jako sprostowanie... Nie wiem czemu prowadzenie dyskusji w taki sposób ma służyć, ale cóż... każdy ma swój styl prowadzenia rozmów.

Ze względu na to, że we wcześniejszym poście pisałeś prawie to co ja, wyrywałem z kontekstu, aby się upewnić czy gadasz o tym samym (a części z tego co napisałeś napisałeś w taki sposób że ciężko było zrozumieć co piszesz, przez niestandardowe nazywnictwo).

nadro-linux @ 2013.01.22 03:41  Post: 630747
Sprostowałem tylko podaną przez Ciebie informację, że libGCM nic nie wnosi do kwestii OGL'a na PS3, a w rzeczywistości wnosi tyle, że OGL tam jest zbędny, więc całkiem sporo jak na moje (dyskusja o PS3 zaczęła się od tego, że stwierdziłeś, iż wywołania na PS3 są tanie bo korzysta się tam z OGL'a, a w praktyce co zresztą później przyznałeś OGL'a tam się nie używa, bo całość załatwia libGCM).

GCM nic nie zmienia dla PSGL, bo jest dla niego tylko takim niższym poziomem sterownika jak to jest w PC. Zmienia dla programistów, ale nie dla PSGL i jego narzutów. To, że na PS3 nie używa się PSGL jest jasne, ale nie o tym pisałem.
DresiqZobacz profil
Poziom ostrzeżenia: 0%
Dresiq2013.01.22, 06:13
A call of duty 8 i fifa i tak wyjdą na starym silinku.
*Konto usunięte*2013.01.22, 06:13
-4#88
Jesli specyfikscja sie ootwierdzi to moze w przyszlosci FX beda mialy sens i przezyja druga mlodosc.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.01.22, 07:31
X360 tez miał kość 10MB eDRAM wielkości połowy GPU NEC.
This logic is made up of 192 component processors capable of doing the basic math necessary for multisampled antialiasing. If I have it right, the component processors should be able to process 32 pixels at once by operating on six components per pixel: red, green, blue, alpha, stencil, and depth
@256GB/s
http://msdn.microsoft.com/en-us/library/bb464139.aspx
jkbrennaZobacz profil
Poziom ostrzeżenia: 0%
jkbrenna2013.01.22, 08:13
-6#90
Czyli jedynym wykonawca CPU jak zwykle wszchpotezny Samsung bedzie...
miomolZobacz profil
Poziom ostrzeżenia: 0%
miomol2013.01.22, 08:30
-2#91
Jeśli wierzyć tym plotkom to na następne kilka lat wystarczy do gier spokojnie FX8320 + HD8850... Albo i Phenom II X6 1045T + HD8770.
arvalZobacz profil
Poziom ostrzeżenia: 0%
arval2013.01.22, 09:20
-9#92
skoti48 @ 2013.01.22 03:33  Post: 630746
arval @ 2013.01.22 03:23  Post: 630745

WOW. Widzę że jesteś 'wielkim specjalistą od wszystkiego'. Przy tobie ludzie z którzy złamali zabezpieczenia Xbox360, PS4 to płotki. A specyfikacja zabezpieczeń to marketingowy bełkot... Nie doceniłem twojego geniuszu.

Myślę że dalsza dyskusja nie ma sensu :)

Rozbawiłeś mnie przednio, bo jak zwykle masz swoje wyimaginowane twierdzenia nie poparte niczym. Nigdzie nic z tego nie pisałem, po prostu mam zasadę, że linki na yt omijam z daleka, tym bardziej te podawane w komentarzach, bo zazwyczaj nie mają zadnego sensu, a jedynie jest to strata czasu (technologiczne video są umieszczane na innych portalach). Jedyne co na yt jest sensowne to info z konferencji google, a ten temat nie ma nic z google wspólnego. Ale dajmy na to, że jest to super profesjonalna konferencja (nie bede wchodzil tam aby to sprawdzic dla twojej statyswakcji) to bardzo powierzchowna trwała by na ten temat 2h, a nie mam zamiaru tracic tyle czasu na sprawdzanie czy cos zle zrozumiales - przykłądowo mogli powiedzieć, że w Xbox 360 stosują szyfrowanie pamięci - to czego to dokładnie dotyczy, czy tylko fragmentów istotnych dla zabezpieczeń (ma to sens, i nie ma problemu z żadnymi prockami tu) czy ogólnie całość jak zasoby gry (zupełnie bez sensu) to już zapewne nie jest dopowiedziane, albo to olałeś - podaj rzetelny papierek, bo konferencje są z założenia powierzchowne. Jeśli chcesz cos dodać to podaj whitepapier, TR lub przynajmniej inne źródło dobrze opracowane.


Jesteś zabawny... Twoim zdaniem filmiki na YouTube to strata czasu za wyjątkiem filmików Google. No to wyjątkowo się zbłaźniłeś film który nazwałeś 'marketingowym bełkotem' pochodzi z konferencji Google Tech Talk :)

http://www.youtube.com/watch?v=uxjpmc8ZIxM
No ale kończę tą dyskusję bo widzę że szkoda na nią czasu
o1838213Zobacz profil
Poziom ostrzeżenia: 0%
o18382132013.01.22, 09:34
-4#93
Tak jeszcze się nad tym zastanawiałęm.
W chwili premiery i5 Sandy Bridge + GeForce 750TI (lub odpowiednik Radeon) będzie wydajniejszy a gier będzie mało a jeszcze mniej jeśli wogóle tych zoptymalizowanych by wycisnąćmax z nowej platformy.
Zwykle konsole najlepiej sprzedają siędopiero w następnym okresie przedświątecznym a wiec listopad/grudzień 2014. Wówczas to już Haswell w wersji o obniżonym poborze prądu i GeForce 840 w obutowie miniITX będą miały podobną wydajność a taki komp do salonu pasuje równie dobrze jak konsola. Cenowo to również coś z wyprzedaży byle nie z integrą, bedzie porównywalne.
Tak więc to jest konsola tylko dla tych co żyją w erze post PC i nie chcą mieć PCta.

A jeśli chodzi o casualowe granie to kolejna generacja Tegry i najprostszy Maxwell i do tego Android będzie można kupić znacznie taniej a być może Samsung zrobi Smart TV z takim sprzętem.
Stefan999Zobacz profil
Poziom ostrzeżenia: 0%
Stefan9992013.01.22, 09:44
-6#94
To jest prawie na pewno fake. Możliwe, ze w nowych konsolach trafi CPU oparte o Jaguara, ale z duzo wyższymi zegarami. Chociaz bardziej prawdopodobna jest architektura desktopowa. To, ze procesor będzie w x86 jest niemal pewne, z przyczyn czysto ekonomicznych. Łatwiej i taniej jest napisać kod na 3 podobne platformy niz 3 calkiem różne.
KazubinZobacz profil
Poziom ostrzeżenia: 0%
Kazubin2013.01.22, 10:46
Wygląda na to, że dla Valve klaruje się prosta ze steamboxem.
ZIB2000Zobacz profil
Poziom ostrzeżenia: 0%
ZIB20002013.01.22, 11:23
cichy45 @ 2013.01.21 22:03  Post: 630652
@Luk4s
Tak, masz rację. Ale to wciąż nie umywa się do np. 2 Gb GDDR5 z przepustowością 216Gb/s. Zwłaszcza, że wtedy całe 2Gb są szybkie a nie tylko 32Mb. Pewnie cena gra rolę, ale przy premierze te kilkanaście dolców więcej nie powinno zrobić różnicy.
@idesofmany
HDMI 1.4 może przesyłać obraz 4096×2160 przy głębi koloru 24 bitów na piksel.


przy 36 bitach ale niestety tylko w 24 klatkach co dla gier jest tragedią(zreszta dla filmów to równiez nic dobrego)
na szczęscie mozna odpalic full hd w 60 klatkach

wazne żeby była obsługa hdmi cec - bez tego lipa
lukasz22stZobacz profil
Poziom ostrzeżenia: 0%
lukasz22st2013.01.22, 11:24
panowie to jak w koncu z tymi konsolami bo czytam, że wielce prawdopodobnie AMD bedzie w calosci(GPU+CPU) w Xbox i PS4 oraz w Wil jako karta. Jak oceniacie tego szanse,że tak sie stanie, bo tak myślę czy nie warto by zainwestować coś w akcje amd stoja nisko, raczej juz nie poleca nizej a odbic sie po takim zdobyciu rynku powinny konkretnie
GL1zdAZobacz profil
Poziom ostrzeżenia: 0%
GL1zdA2013.01.22, 11:25
Przecież nawet idiota jest w stanie stwierdzić, że to fake:
-North Bridge/South Bridge? Cofnęło nas o dekadę?
-Połączenie North Bridge - HDMI/SPDI/F? Ktoś chyba zapomniał do czego służył NB. I niby do czego ten SPDI/F jest podłączony?
-ESRAM? Co to za twór? Że niby jak eDRAM, tylko statyczny? Ktoś zapomniał, że SRAM od czasu 486 jest 'embedded' i nigdy takiego rozróżnienia nie było.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482013.01.22, 11:41
-4#99
arval @ 2013.01.22 09:20  Post: 630772
Jesteś zabawny... Twoim zdaniem filmiki na YouTube to strata czasu za wyjątkiem filmików Google. No to wyjątkowo się zbłaźniłeś film który nazwałeś 'marketingowym bełkotem' pochodzi z konferencji Google Tech Talk :)

Nie wiele rozumiesz z tekstu pisanego... czyżby to była przyczyna oglądania filmików, zamiast papierków?
arvalZobacz profil
Poziom ostrzeżenia: 0%
arval2013.01.22, 12:06
skoti48 @ 2013.01.22 11:41  Post: 630818
arval @ 2013.01.22 09:20  Post: 630772
Jesteś zabawny... Twoim zdaniem filmiki na YouTube to strata czasu za wyjątkiem filmików Google. No to wyjątkowo się zbłaźniłeś film który nazwałeś 'marketingowym bełkotem' pochodzi z konferencji Google Tech Talk :)

Nie wiele rozumiesz z tekstu pisanego... czyżby to była przyczyna oglądania filmików, zamiast papierków?


Po prostu śmieszy mnie to ci piszesz. Najpierw pisałeś jakieś bzdury o tym że może być zwykły układ AMD. To napisałem ci że nie wiesz jak zbudowany jest CPU każdej nowej konsoli i konieczne są modyfikacje wewnątrz procesora by dodać bramki eFuse, ROM, CRC pamięci itp. które nie mogą się znajdować na płycie głównej. Przesłałem ci linka do wideo z wyjaśnieniem. Ty go nie zobaczyłeś i dalej pisałeś swoją wizję. A nawet zasugerowałeś że bramki eFuse można umieścić w osobnym układzie na płycie. LOL :)

A teraz najlepsze. Napisałeś że nie będziesz oglądał filmików to to 'marketingowy bełkot' i oglądasz tylko filmy z konferencji Google. Napisałeś mi że Google nie ma nic wspólnego z Xbox więc nie ma sensu klikać w linka. Tu oczywiście całkowicie się zbłaźniłeś ponieważ gdybyś otworzył film to wiedziałbyś że pochodzi on z Google Tech Talk :)

http://www.youtube.com/watch?v=uxjpmc8ZIxM
.
Po prostu całość wydała mi się niezmiernie komiczna :)
Zaloguj się, by móc komentować