Przypomnę się raz jeszcze, bo coś się obawiam że jednak już jakaś z opcji typu oddanie zestawu / wykreślenie tego testu (WPrime jak zwykle oczywiście) z planów zadziałała...
Zostało tylko to środkowe . NDA chyba do 21.05 jest {a w sklepach już "nawet" w Polsce od dość dawna P35 dostępne }, czyli 6 dni zostało - może te 15 minut by się udało wyrwać na WPrime . Tzn. nie chodzi mi o to żeby natychmiast, ale po prostu kiedyś jednak się z maszyną będzie trzeba pożegnać - "nie znasz dnia ani godziny" .
Tak jeszcze odnośnie testów: PCMark05 jest ograniczony do 4 wątków? Chyba niestety tak , bo też by było ciekawie...
A bylaby szansa na jakies testy w BIONIC? Jak wiadomo ten agent uzywa tylko maksymalnie 4 jader, ale moze da sie z powodzeniem odpalic go dwukrotnie tak by wykorzystal wszystkie 8 rdzeni, tak by obciazyc je w 100%?
Na SanDiego 4000+ pakiet powiedzmy Human Proteome Folding Phase 2 (World Community Grid) liczy sie srednio 90 minut. Ciekawe jaka faktycznie jest roznica w wydajnosci takiego serwerowego potwora w porownaniu ze starym dobrym desktopem, z porzadnym 1 core
Zapewniam, że nie przebiło to 3dsmax... gdyby przebiło, podane byłyby wyniki. Orthos owszem, obciąża procesor dość mocno, ale akurat niekoniecznie w sposób powidujący maksymalny pobór energii.
To może inaczej - Intel Thermal Analysis Tool na tym zadziała? Bo to by bezapelacyjnie najbardziej obciążyło . Chociaż jakoś nawet na Kensfieldzie zdaje się nie widziałem TAT'a uruchomionego nigdy, ale prawdę mówiąc nie wiem. TAT może dziwolągów nie lubić, na jednym rdzeniu (Conroe-L) działać nie chciał .Chociaż że "real-world application" bardziej od Orthosa obciąża to trochę dziwne, ale wierzę .
Mamy zakonotowane, jak starczy sił i czasu (bo cholerna doba ma bez sensu tylko 24 godziny, a kiedyś trzeba żyć i spać) to zrobimy i to.
To zajmie maksymalnie 15 minut tak prawdę mówiąc, łącznie ze ściągnięciem aplikacji i umieszczeniem wyników. Ewentualnie mogę podjechać i sam to zrobić .
P35 oczywiście (również) z DDR3 (i to "odpowiednim") mam nadzieję? By się jakiś obiektywny test przydał, bo w necie to tego trochę jest, ale póki się poważni ludzie za WRki nie wezmą to totalnie nie wiadomo jak te wyniki porównywać...
A cóź to za śmieszny wykres z mocą (elektryczną)? Orthos jako aplikacja dwuwątkowa wymaga uruchomienia czterech instancji programu. Zapewniam, że przebije to wszystkie inne testy pod względem pobieraniej energii...
Zapewniam, że nie przebiło to 3dsmax... gdyby przebiło, podane byłyby wyniki. Orthos owszem, obciąża procesor dość mocno, ale akurat niekoniecznie w sposób powidujący maksymalny pobór energii.
Mamy zakonotowane, jak starczy sił i czasu (bo cholerna doba ma bez sensu tylko 24 godziny, a kiedyś trzeba żyć i spać) to zrobimy i to. Teraz jestem obciążony do bólu nawałą premier - Santa Rosa, P35 i G33, a niedługo jeszcze R600, więc po prostu nie dam rady. A co do oddawania maszyny - oddamy, jak już nie będzie potrzebna! Chyba, żeby nam ją nagle wyrwali, ale zdaje mi się, że nie będzie takiego przypadku...
Nooo... to chyba zgadzałoby się mniej-więcej z Prawem Moore'a - podwojenie co niespełna dwa lata? Czyli - "wszystko zgodnie z planem". A co do wielokrotnie tu i gdzie indziej dyskutowanej "wyższości Świąt Wielkiej Nocy nad Świętami Bożego Narodzenia i odwrotnie", to zamiast polemizować na temat wyższości, przyjrzyjcie się podobieństwom obu mikroarchitektur...
No chyba by się jednak nie zgadzało. Po pierwsze w prawie Moore'a jest mowa o 18 miesiącach, a nie o 2 latach. No i przez 7 lat mamy prawo oczekiwać ok 25 razy większej wydajności - no owszem dostaliśmy coś takiego, ale w postaci platformy wieloprocesorowej i z której strony nie patrzeć nie jest to uczciwe porównanie, bo platforma wieloprocesorowa była dostępna i za czasów PIII. Tymczasem jak się przyjrzymy temu co oferuje jeden rdzeń, a więc miara dla wszystkich aplikacji to jest to wzrost na poziomie 4-5 razy, a więc 5 razy mniej niż wynikałoby z prawa Moore'a!
Po raz kolejny przypomnę że przez wcześniejsze 7 lat mieliśmy do czynienia z 15 krotnym wzrostem taktowania 66-1000MHz i dodatkowym wzrostem wydajności wynikającym z usprawnień architektury. Jest wiele przykładów na to że wydajność wtedy rosła zgodnie z prawem Moore'a, a czasem nawet szybciej.
Odnośnie C2D. Owszem to jest odgrzane PIII z drobnymi usprawnieniami. Nędzna imitacja dobrego produktu który potencjalnie byłby w stanie wyprodukować intel. Owszem byłby to w miarę nowoczesny procesor - 3-4 lata temu (nawet w wersji jednordzeniowej) Nawet wtedy jednak brakowałoby mu do bycia nowoczesnym kontrolera pamięci i likwidacji FSB. I nie piszcie, że C2D tego nie potrzebuje. Owszem nie potrzebuje by wygrać z K8, ale potrzebuje by móc w pełni rozwinąć skrzydła szczególnie w konfiguracjach wieloprocesorowych.
A cóź to za śmieszny wykres z mocą (elektryczną)? Orthos jako aplikacja dwuwątkowa wymaga uruchomienia czterech instancji programu. Zapewniam, że przebije to wszystkie inne testy pod względem pobieraniej energii...
Poza tym w specyfikacji to też rewelacji żadnych nie ma.
To oświeć mnie zatem jakie to rewelacje są w Core (jak mniemam tutaj rewelacja goni rewelację)?
Pamiętaj że K10 dostał od AMD wszystkie naistotniejsze dla wydajności rozwiązania zastosowane przez Intela w Core, a nieobecne w K8.
To na początek w ramach nadrobienia zaległości. Ale to nie wszystko. Dołóz do tego daleko idące usprawnienia wykonywania instrukcji SSE [128bit] (tu w kilku punktach zdecydowana przewaga AMD), podwójny (usprawniony względem K8) zintegrowany kontroler pamięci, pamięć podręczna współdzielona przez wszystkie 4 rdzenie, udoskonalony system predykcji rozgałęzień, nową wersję szyny Hyper Transport (3.0), monolityczny 4 rdzeniowy CPU etc
po 7 latach mamy do dyspozycji procesory raptem 8,5 raza szybsze
Nooo... to chyba zgadzałoby się mniej-więcej z Prawem Moore'a - podwojenie co niespełna dwa lata? Czyli - "wszystko zgodnie z planem". A co do wielokrotnie tu i gdzie indziej dyskutowanej "wyższości Świąt Wielkiej Nocy nad Świętami Bożego Narodzenia i odwrotnie", to zamiast polemizować na temat wyższości, przyjrzyjcie się podobieństwom obu mikroarchitektur...
W porównaniu z Pentium 4 - możliwe. W porównaniu z K10 - nie bardzo....
Zobaczymy to pogadamy, chyba nie można porównywać nowoczesności dopóki nie zobaczymy jakie będzie K10 w praktyce. Poza tym w specyfikacji to też rewelacji żadnych nie ma.
No może faktycznie akurat w tym programie nie jest to tak duża różnica (chodzi o athlona), co nie zmienia faktu, że najszybszy procesor (c2d 3 GHz) jest raptem 8,5 razy szybszy w fritzu niż PIII 1GHz. A to tylko dzięki temu, że ma dwa rdzenie i akurat ten program to potrafi wykorzystać. Większość oprogramowania jednak z więcej niż jednego rdzenia nie potrafi skorzystać. Mniejsza z tym, tak więc po 7 latach mamy do dyspozycji procesory raptem 8,5 raza szybsze, świadomie w tym momencie pomijam rozwiązania wieloprocesorowe do których należy zaliczyć QXy. Ja tu spisku nie widzę, a o prawdopodnych przyczynach napisałem we wcześniejszym poście.
Jakoś we wcześniejszych 7 latach producenci byli w stanie zrobić dużo szybsze procesory - przypomnę samo taktowanie było 15 razy szybsze plus bardzo duży wzrost wydajności związany z usprawnieniami architektury.
Zauważ, że powoli kończą się rzeczy, które łatwo usprawnić, a skomplikowane usprawnianie działa na niekorzyść taktowania, w ten sposób dochodzimy do barier możliwości kolejnych wymiarów technologicznych. Szerokość elementów procesorów można już mierzyć w setkach atomów, tak więc albo krzem, albo architektura (w sensie x86), albo wydajność - któryś z tych elementów w pewnym momencie odpadnie.
Warto jeszcze dodać co do wydajności, że od czasu PIII wzrósł "współczynnik marnotrawienia" wydajności przez systemy operacyjne, kompilatory i aplikacje.
Grave: Chyba nie uważasz że Pentium III nigdy nie był nowoczesny, a Netburst stworzony od podstaw, skąd więc słowa, że Nahalem będzie pierwszy ?
Nawet jak K10 dostanie srogie baty od nowego C2D ?
O wydajność K10 jestem spokojny - nie zawiedzie.
Odnośnie Penryna nie spodziewałbym się wiele. Broni się głównie taktowaniem. Zmiany w architekturze są niewielkie i mają marginalny wpływ na wydajność.
Poza programami korzystającymi intensywnie z nowych instrukcji Penryn jest od 0 do 10% szybszy od Core2Duo taktowanego takimi samymi zegarami (rdzeń/FSB).
W świetle K10 Core jest przestarzałe i jako takie nie znajdzie miejsca w moim nowym PC-cie.
Świetnie zapowiada się za to Nehalem, chyba pierwsza od dawna w 100% dopracowana i nowoczesna konstrukcja od Intela. Gdyby on wchodził w tym terminie co Penryn (zaraz za K10) wtedy wybrałbym jego.
"Trzynaście milionów przekalkulowanych pozycji i wydajność 27 razy wieksza od gigahercowego Pentium III. To dużo, czy mało?"
To bardzo mało! Jakby nie patrzeć jest to platforma wieloprocesorowa. I jakby nie patrzeć dostępna 7 lat po papierowej, ale jednak premierze PIII 1GHz. I jakby nie patrzeć to jest jeden z nielicznych przykładów gdzie wydajność w miarę dobrze się skaluje wraz ze zwiększaniem liczby rdzeni/procesorów.
Weź pod uwagę ,że przy analizie pozycji szachowych nie są wykorzystywane multmedialne instrukcje i usprawnienia np. SSE2 ,3Dnow Pamiętam ,że już właściwie oprogramowany ZX Spectrum nie był łatwym przeciwnikiem w szachy.
Spiskowa teoria dziejów ? Przecież to normalne że zarówno Intel jak i AMD robią procesory zawsze tylko troszkę lepsze od poprzednich, żeby przypadkiem nie zmarnować na nas zbyt wiele pieniędzy, rozejrzyj się ilu jest ludzi, którzy za duże pieniądze kupią najnowsze procki. Przecież te firmy nie produkują ich dla idei, tylko dla pieniędzy...
Z tymi megahercami to poczytaj może o przetwarzaniu potokowym w procesorach i jak to na prawdę jest z częstotliwościami. Z przewagą AMD to też ładnie przegiąłeś...
No może faktycznie akurat w tym programie nie jest to tak duża różnica (chodzi o athlona), co nie zmienia faktu, że najszybszy procesor (c2d 3 GHz) jest raptem 8,5 razy szybszy w fritzu niż PIII 1GHz. A to tylko dzięki temu, że ma dwa rdzenie i akurat ten program to potrafi wykorzystać. Większość oprogramowania jednak z więcej niż jednego rdzenia nie potrafi skorzystać. Mniejsza z tym, tak więc po 7 latach mamy do dyspozycji procesory raptem 8,5 raza szybsze, świadomie w tym momencie pomijam rozwiązania wieloprocesorowe do których należy zaliczyć QXy. Ja tu spisku nie widzę, a o prawdopodnych przyczynach napisałem we wcześniejszym poście.
Jakoś we wcześniejszych 7 latach producenci byli w stanie zrobić dużo szybsze procesory - przypomnę samo taktowanie było 15 razy szybsze plus bardzo duży wzrost wydajności związany z usprawnieniami architektury.
Spiskowa teoria dziejów ? Przecież to normalne że zarówno Intel jak i AMD robią procesory zawsze tylko troszkę lepsze od poprzednich, żeby przypadkiem nie zmarnować na nas zbyt wiele pieniędzy, rozejrzyj się ilu jest ludzi, którzy za duże pieniądze kupią najnowsze procki. Przecież te firmy nie produkują ich dla idei, tylko dla pieniędzy...
Z tymi megahercami to poczytaj może o przetwarzaniu potokowym w procesorach i jak to na prawdę jest z częstotliwościami. Z przewagą AMD to też ładnie przegiąłeś...
Zostało tylko to środkowe
Tak jeszcze odnośnie testów: PCMark05 jest ograniczony do 4 wątków? Chyba niestety tak
Na SanDiego 4000+ pakiet powiedzmy Human Proteome Folding Phase 2 (World Community Grid) liczy sie srednio 90 minut. Ciekawe jaka faktycznie jest roznica w wydajnosci takiego serwerowego potwora w porownaniu ze starym dobrym desktopem, z porzadnym 1 core
To może inaczej - Intel Thermal Analysis Tool na tym zadziała?
To zajmie maksymalnie 15 minut tak prawdę mówiąc, łącznie ze ściągnięciem aplikacji i umieszczeniem wyników. Ewentualnie mogę podjechać i sam to zrobić
P35 oczywiście (również) z DDR3 (i to "odpowiednim") mam nadzieję?
A co do wielokrotnie tu i gdzie indziej dyskutowanej "wyższości Świąt Wielkiej Nocy nad Świętami Bożego Narodzenia i odwrotnie", to zamiast polemizować na temat wyższości, przyjrzyjcie się podobieństwom obu mikroarchitektur...
No chyba by się jednak nie zgadzało. Po pierwsze w prawie Moore'a jest mowa o 18 miesiącach, a nie o 2 latach. No i przez 7 lat mamy prawo oczekiwać ok 25 razy większej wydajności - no owszem dostaliśmy coś takiego, ale w postaci platformy wieloprocesorowej i z której strony nie patrzeć nie jest to uczciwe porównanie, bo platforma wieloprocesorowa była dostępna i za czasów PIII. Tymczasem jak się przyjrzymy temu co oferuje jeden rdzeń, a więc miara dla wszystkich aplikacji to jest to wzrost na poziomie 4-5 razy, a więc 5 razy mniej niż wynikałoby z prawa Moore'a!
Po raz kolejny przypomnę że przez wcześniejsze 7 lat mieliśmy do czynienia z 15 krotnym wzrostem taktowania 66-1000MHz i dodatkowym wzrostem wydajności wynikającym z usprawnień architektury. Jest wiele przykładów na to że wydajność wtedy rosła zgodnie z prawem Moore'a, a czasem nawet szybciej.
Odnośnie C2D. Owszem to jest odgrzane PIII z drobnymi usprawnieniami. Nędzna imitacja dobrego produktu który potencjalnie byłby w stanie wyprodukować intel. Owszem byłby to w miarę nowoczesny procesor - 3-4 lata temu (nawet w wersji jednordzeniowej) Nawet wtedy jednak brakowałoby mu do bycia nowoczesnym kontrolera pamięci i likwidacji FSB. I nie piszcie, że C2D tego nie potrzebuje. Owszem nie potrzebuje by wygrać z K8, ale potrzebuje by móc w pełni rozwinąć skrzydła szczególnie w konfiguracjach wieloprocesorowych.
I jeszcze się odnośnie testu oczekiwanego przypomnę: http://forum.pclab.pl/index.php?s=&sho...t&p=3635409, bo pewnie zaraz maszynę będzie trzeba oddać i (jak zwykle...) nic z tego nie wyjdzie.
To oświeć mnie zatem jakie to rewelacje są w Core (jak mniemam tutaj rewelacja goni rewelację)?
Pamiętaj że K10 dostał od AMD wszystkie naistotniejsze dla wydajności rozwiązania zastosowane przez Intela w Core, a nieobecne w K8.
To na początek w ramach nadrobienia zaległości. Ale to nie wszystko. Dołóz do tego daleko idące usprawnienia wykonywania instrukcji SSE [128bit] (tu w kilku punktach zdecydowana przewaga AMD), podwójny (usprawniony względem K8) zintegrowany kontroler pamięci, pamięć podręczna współdzielona przez wszystkie 4 rdzenie, udoskonalony system predykcji rozgałęzień, nową wersję szyny Hyper Transport (3.0), monolityczny 4 rdzeniowy CPU etc
Tyle w naprawdę dużym skrocie.
Po więcej zapraszam tutaj:
http://www.anandtech.com/cpuchipsets/showd...?i=2939&p=5
Tosz pisze, że nie ma rewelacji.
A co do wielokrotnie tu i gdzie indziej dyskutowanej "wyższości Świąt Wielkiej Nocy nad Świętami Bożego Narodzenia i odwrotnie", to zamiast polemizować na temat wyższości, przyjrzyjcie się podobieństwom obu mikroarchitektur...
Zobaczymy to pogadamy, chyba nie można porównywać nowoczesności dopóki nie zobaczymy jakie będzie K10 w praktyce. Poza tym w specyfikacji to też rewelacji żadnych nie ma.
W porównaniu z Pentium 4 - możliwe. W porównaniu z K10 - nie bardzo....
C2D nie było nowoczesne ?
Napisałem "pierwszy od dawna". P III był bardzo udanym procesorem, ale miał premierę 8 lat temu....
Jakoś we wcześniejszych 7 latach producenci byli w stanie zrobić dużo szybsze procesory - przypomnę samo taktowanie było 15 razy szybsze plus bardzo duży wzrost wydajności związany z usprawnieniami architektury.
Zauważ, że powoli kończą się rzeczy, które łatwo usprawnić, a skomplikowane usprawnianie działa na niekorzyść taktowania, w ten sposób dochodzimy do barier możliwości kolejnych wymiarów technologicznych. Szerokość elementów procesorów można już mierzyć w setkach atomów, tak więc albo krzem, albo architektura (w sensie x86), albo wydajność - któryś z tych elementów w pewnym momencie odpadnie.
Warto jeszcze dodać co do wydajności, że od czasu PIII wzrósł "współczynnik marnotrawienia" wydajności przez systemy operacyjne, kompilatory i aplikacje.
Grave: Chyba nie uważasz że Pentium III nigdy nie był nowoczesny, a Netburst stworzony od podstaw, skąd więc słowa, że Nahalem będzie pierwszy ?
O wydajność K10 jestem spokojny - nie zawiedzie.
Odnośnie Penryna nie spodziewałbym się wiele. Broni się głównie taktowaniem. Zmiany w architekturze są niewielkie i mają marginalny wpływ na wydajność.
Poza programami korzystającymi intensywnie z nowych instrukcji Penryn jest od 0 do 10% szybszy od Core2Duo taktowanego takimi samymi zegarami (rdzeń/FSB).
W świetle K10 Core jest przestarzałe i jako takie nie znajdzie miejsca w moim nowym PC-cie.
Świetnie zapowiada się za to Nehalem, chyba pierwsza od dawna w 100% dopracowana i nowoczesna konstrukcja od Intela. Gdyby on wchodził w tym terminie co Penryn (zaraz za K10) wtedy wybrałbym jego.
A tak biorę AMD.
To bardzo mało! Jakby nie patrzeć jest to platforma wieloprocesorowa. I jakby nie patrzeć dostępna 7 lat po papierowej, ale jednak premierze PIII 1GHz. I jakby nie patrzeć to jest jeden z nielicznych przykładów gdzie wydajność w miarę dobrze się skaluje wraz ze zwiększaniem liczby rdzeni/procesorów.
Weź pod uwagę ,że przy analizie pozycji szachowych nie są wykorzystywane multmedialne instrukcje i usprawnienia np. SSE2 ,3Dnow Pamiętam ,że już właściwie oprogramowany ZX Spectrum nie był łatwym przeciwnikiem w szachy.
Z tymi megahercami to poczytaj może o przetwarzaniu potokowym w procesorach i jak to na prawdę jest z częstotliwościami. Z przewagą AMD to też ładnie przegiąłeś...
No może faktycznie akurat w tym programie nie jest to tak duża różnica (chodzi o athlona), co nie zmienia faktu, że najszybszy procesor (c2d 3 GHz) jest raptem 8,5 razy szybszy w fritzu niż PIII 1GHz. A to tylko dzięki temu, że ma dwa rdzenie i akurat ten program to potrafi wykorzystać. Większość oprogramowania jednak z więcej niż jednego rdzenia nie potrafi skorzystać. Mniejsza z tym, tak więc po 7 latach mamy do dyspozycji procesory raptem 8,5 raza szybsze, świadomie w tym momencie pomijam rozwiązania wieloprocesorowe do których należy zaliczyć QXy. Ja tu spisku nie widzę, a o prawdopodnych przyczynach napisałem we wcześniejszym poście.
Jakoś we wcześniejszych 7 latach producenci byli w stanie zrobić dużo szybsze procesory - przypomnę samo taktowanie było 15 razy szybsze plus bardzo duży wzrost wydajności związany z usprawnieniami architektury.
so.pwn.pl
Z tymi megahercami to poczytaj może o przetwarzaniu potokowym w procesorach i jak to na prawdę jest z częstotliwościami. Z przewagą AMD to też ładnie przegiąłeś...