tak nie chodziło o długośc fali, źle to ująłem, dzięki rs za poprawe, tak jak napisałem, nie pamiętam dokładnie ale lubie jak takie ciekawostki prowadzący podają na wykładach
No cóz, może narazie nie jest pięknie ale jak napisała redakcja - każdy nowy wymiar technologiczny jest dopracowywany przez cały czas, aż do wprowadzenia nowego... Cieszmy się, że AMD nie stoi w miejscu...I nie piszcie, że AMD to cienias itp. bo to nieprawda... ogólnie pozdrawiam lol
Narazie wykombinowali kilka podstawek, magiczne 4x4 i niedopraco- wanego Brisbane. Niech sobie szykują dobry grunt ale u siebie w laboratoriach. Rynek to nie jest dobre miejsce na eksperymenty. Intel wie o tym chyba najlepiej - rambus, netburst, prescott... itd.
Wyniki wydajności nie nastrajają pozytywnie. Zwiększenie opóźnień cache upatrywałbym w problemach z raczkującym jeszcze procesem 65nm. Miejmy nadzieje, że wersja która trafi do sklepów będzie już ulepszona. Szkoda, że nie powiększyli cache - w końcu przy 2x2mb intela 2x512kb amd wygląda śmiesznie. Nawet nie ma w planach zwiększenia cache. Taktowanie też stoi w miejscu, możliwe że już nic więcej się z k8 nie wydusi. Samym zmniejszeniem poboru mocy klienta się nie zwabi, bo co mi z tego że 14W mniej zjada Licze, że k8l coś wniesie nowego a nie będzie tylko dwoma brisbane, tyle że w wersji prawdziwe 4 rdzenie(jednak coś mi się wydaje, że właśnie ta wersja jest bardziej prawdopodobna). Co do artykułu - miernota. Ot 4 testy, z czego 2 to pcmark. Gdzie gry, gdzie aplikacje róznego rodzaju ?? Bez tego nie wiadomo o ile zmniejszy się wydajność procesora w rzeczywistych zastosowaniach. I co ma znaczyć "I rzeczywiście, maksimum przyspieszenia, przy jakim układ pracował stabilnie, wyniosło zaledwie około dziesięciu procent." ?? Zero szczegółów, zrzutów ekranu - takie coś może uszłoby w cdaction ale nie na ponoć poważnej stronie. Artykuł pisany ewidentnie na odczep się.
AMD znowu daje ciała.... brrr niech lepiej wprowadzą coś konkurującego z C2D, bo intel zacznie masakrować cenami... Tymczasem cieszę się, że wybrałem E6300
Ależ jest! Dla klienta kupującego tysiące czy miliony układów jest bardzo atrakcyjny. A dla indywidualnego użytkownika? Trzyprocentowe obniżenie wydajności za zmniejszenie poboru mocy o 25-30% to wcale nie jest wysoka cena i wielu z nas chętnie by ją zapłaciło, bo to zawsze o 1000 obrotów wentylatora mniej i o 5-8 dB cichszy szum.
Racja. Jesli idzie o uzytkownika domowego(pomijam znakomita wiekszosc forumowiczow) taki lekki spadek wydajnosci nie bedzie robil roznicy , za to faktycznie "1000" rpm mniej juz tak....
Szkoda, że nie powiększyli cache - w końcu przy 2x2mb intela 2x512kb amd wygląda śmiesznie. Nawet nie ma w planach zwiększenia cache.
Nie wyglada wcale smiesznie, gdyz: - procki AMD zawsze byly mniej wymagajace jesli chodzi o wielkosc cache (m.in. dlatego, ze bardziej optymalnie je wykorzystywaly. - podwojenie cache kosztuje i to nie malo (wystarczy spojrzec ile w rdzeniu zajmuja jednostki obliczenowe a ile cache), a pamietajmy, ze AMD ma nieco inna filozofie od Intela (ich procki sa zazwyczaj tansze w produkcji przy, znow zazwyczaj, wiekszym wymiarze technologicznym. AMD po prostu nie moze podswoic cache dla uzyskania 10% wzrostu wydajnosci, bo im sie to nie oplaci...
... Po raz kolejny w przypadku artykułów pana Rysia uderza brak OC. W tym przypadku niestety nie było wyjątku, bo stwierdzenie "I rzeczywiście, maksimum przyspieszenia, przy jakim układ pracował stabilnie, wyniosło zaledwie około dziesięciu procent" jest tylko jakimś wykrętem. No ba jak mozna nazwać wypowiedź nie potwierdzoną screenami i mówiącymi cokolwiek informacjami. Zero wzmianki o taktowaniu i napięciu. No bo co to kest około 10% (przy nie wiadomo jakim napięciu)? Czy to oznacza 2.8 GHz przy 2V, czy może 2.9 GHz przy 1.35V? Tego niestety sie nie dowiemy, bo pan RS jest anty OC (to samo w przypadku Kentsfielda) i testów OC nie przeprowadza. Szkoda.
... Mam zasadę, że jeśli przy nominalnym napięciu nie ma kilkunastu procent "luzu", to w ogóle nie warto się bawić w podkręcanie, bo jego wartość użytkowa będzie zerowa. A poza tym, po prostu na poważniejsze przetaktowywanie tych układów jest jeszcze za wcześnie, poczekajmy kilka miesięcy, aż technologia dojrzeje.
Pomijając wszystko inne, w przypadku wczesnych egzemplarzy w nowym wymiarze technologicznym, wyniki byłyby niepowtarzalne. Co z tego, że mój egzemplarz podkręciłby się np. do 3,9 GHz, gdyby był najlepszą sztuką z serii?
[quote name='mach82' date='26 grudnia 2006, 00:20' post='3089956'] A że tak sie zapytam - czym mierzyłeś temperatury? Czy nie przypadkiem Coretemp w C2D, który daje odczyty z DTS, czyli z wnętrzea rdzeni, zaś w opteronie oprogramowaniem, które nie potrafi zczytywać temperatur z wnętrza rdzeni (bo niestety nie potrafi). Tak to sobie można temperatury porónywać Na 5 różnych płytach byś otrzymał na tym opteronie 5 różnych temperatur, różniących sie od siebie o kilkanaście stopni. Dotknij za to radiatora w obu przypadkach i będziesz wiedział co jest chłodniejsze.
Laboratoryjny czujnik pomiarowy skalibrowany na 6 punktach na krzywej pomiaru. Kalibracja i certyfikacja czujnika przeprowadzona przez GUM (Glowny Urzad Miar). Sposob mocowania czujnika w miare fizycznych mozliwosci identyczny tak aby zachowac warunki pomiarowe. Z calym szacunkiem ale dotykanie radiatora to rownie dobra metoda co programy. Ale jak bardzo sobie zyczysz to zapraszam bo i C2D i x2 i opterona moge udostepnic do "dotykania" radiatora
ten procek nie jest znowu taki zly, ale nie spelnil do konca oczekiwan przeciez najwazniejszym zalozeniem bylo wydac procka w technologii 65nm i przez to zmniejszenie poboru mocy, szkoda tylko tak slabego OC ale coz. za kilka tygodnii wyjdzi bardziej dopracowany i bedzie bycmoze konkurowal z C2D, (przynajmniej 6300 )
Kolejne potwierdzenie tego, ze grzebanie w krzemie intelowi wychodzi zdecydowanie lepiej... wyraznie wiekszy uzysk chlopaki miec musza, jesli pakuja 4MB chache (ktore w stosunku do 2MB z E6300 i E6400 nie wnosi za wiele). Sama topologia ukladu tez jakas taka bardziej przyszlosciowa... kazda, nawet bardzo wczesna probka inzynieryjna intela krecila sie wysmienicie... a pieprzenie, ze to selekcjonowane ezgemplarze jest smieszne (bo uklady "z tasmy" produkcyjnej krecily i kreca sie rownie dobrze). Nie pisze tu bynajmniej tylko o C2D bo podobnie bylo z kazdym poprzednim przejsciem northwood=>prescott=>presler. Jesli AMD nie poprawi swojego procesu i uzysku to moze byc kicha przy K8L bo to naprawde bedzie wielki kawal krzemu (i tak samo wielka cena).
Może będe za bardzo upierdliwy ale powiem to co czuje że Pan Ryszard nie nadaje się do pisania artykułów o procesorach w myśl tego do czego się przyzwyczailiśmy czytając wszystkie wcześniejsze arty pisane przez Piłe. Pan Rysio może pisać o aspektach technicznych ale tylko o tym do testowania się nie nadaje!!! Mam nadzieje że Piła zmądrzeje i wróci do testowania choćby procesorów bądz skieruje jakąś młodą, chetna do eksperymentowania i OC dusze. Arty Pana Ryszarda jak dla mnie są mało konkretne takie unikanie i lanie wody byle by nie uzasadniac swoich sadów, wszystko bokiem. Szkoda ze PCLab zmienia się w coś pokroje Chipa, Entera czy PCWorlda a te gazetki nie sa dla mnie zadna wytyczna a wiem ze Pan Rysio pracowal w jedym z tych wydawnict i tam pisal artykuly (jeden z nich ma i nie sprawdzil się nawet w 10%)
Cieszmy się, że AMD nie stoi w miejscu...I nie piszcie, że AMD to cienias itp. bo to nieprawda...
ogólnie pozdrawiam
lol
wanego Brisbane. Niech sobie szykują dobry grunt ale u siebie w
laboratoriach. Rynek to nie jest dobre miejsce na eksperymenty.
Intel wie o tym chyba najlepiej - rambus, netburst, prescott... itd.
To jeszcze mało wiesz
Co do artykułu - miernota. Ot 4 testy, z czego 2 to pcmark. Gdzie gry, gdzie aplikacje róznego rodzaju ?? Bez tego nie wiadomo o ile zmniejszy się wydajność procesora w rzeczywistych zastosowaniach. I co ma znaczyć "I rzeczywiście, maksimum przyspieszenia, przy jakim układ pracował stabilnie, wyniosło zaledwie około dziesięciu procent." ?? Zero szczegółów, zrzutów ekranu - takie coś może uszłoby w cdaction ale nie na ponoć poważnej stronie. Artykuł pisany ewidentnie na odczep się.
A to poprostu ten sam procesor.
A to poprostu ten sam procesor.
Procesor jest wolniejszy od wersji 90nm
Prawie w ogóle się nie kręci
To nie wróży nic dobrego.
Tymczasem cieszę się, że wybrałem E6300
Dla nich to dopiero poczatek. Poczekamy , zobaczymy.
No bez przesady. Jest tylko ciut slabszy niz Windsor. Jesli cena bedzie normalna to czemu nie a jesli bedzie "chlodniejszy" to tym bardziej.
A dla indywidualnego użytkownika? Trzyprocentowe obniżenie wydajności za zmniejszenie poboru mocy o 25-30% to wcale nie jest wysoka cena i wielu z nas chętnie by ją zapłaciło, bo to zawsze o 1000 obrotów wentylatora mniej i o 5-8 dB cichszy szum.
DFI Infinity NF Ultra II
Abit KN9
Biostar TFroce NF4 i NF4U
Nie wyglada wcale smiesznie, gdyz:
- procki AMD zawsze byly mniej wymagajace jesli chodzi o wielkosc cache (m.in. dlatego, ze bardziej optymalnie je wykorzystywaly.
- podwojenie cache kosztuje i to nie malo (wystarczy spojrzec ile w rdzeniu zajmuja jednostki obliczenowe a ile cache), a pamietajmy, ze AMD ma nieco inna filozofie od Intela (ich procki sa zazwyczaj tansze w produkcji przy, znow zazwyczaj, wiekszym wymiarze technologicznym. AMD po prostu nie moze podswoic cache dla uzyskania 10% wzrostu wydajnosci, bo im sie to nie oplaci...
Po raz kolejny w przypadku artykułów pana Rysia uderza brak OC. W tym przypadku niestety nie było wyjątku, bo stwierdzenie "I rzeczywiście, maksimum przyspieszenia, przy jakim układ pracował stabilnie, wyniosło zaledwie około dziesięciu procent" jest tylko jakimś wykrętem. No ba jak mozna nazwać wypowiedź nie potwierdzoną screenami i mówiącymi cokolwiek informacjami. Zero wzmianki o taktowaniu i napięciu. No bo co to kest około 10% (przy nie wiadomo jakim napięciu)? Czy to oznacza 2.8 GHz przy 2V, czy może 2.9 GHz przy 1.35V? Tego niestety sie nie dowiemy, bo pan RS jest anty OC (to samo w przypadku Kentsfielda) i testów OC nie przeprowadza. Szkoda.
Pro, pro! ale wtedy, gdy ma to sens.
Mam zasadę, że jeśli przy nominalnym napięciu nie ma kilkunastu procent "luzu", to w ogóle nie warto się bawić w podkręcanie, bo jego wartość użytkowa będzie zerowa. A poza tym, po prostu na poważniejsze przetaktowywanie tych układów jest jeszcze za wcześnie, poczekajmy kilka miesięcy, aż technologia dojrzeje.
Pomijając wszystko inne, w przypadku wczesnych egzemplarzy w nowym wymiarze technologicznym, wyniki byłyby niepowtarzalne. Co z tego, że mój egzemplarz podkręciłby się np. do 3,9 GHz, gdyby był najlepszą sztuką z serii?
Hmm, a gdyby był najlepszą? Eh, rozmarzyłem się
A że tak sie zapytam - czym mierzyłeś temperatury? Czy nie przypadkiem Coretemp w C2D, który daje odczyty z DTS, czyli z wnętrzea rdzeni, zaś w opteronie oprogramowaniem, które nie potrafi zczytywać temperatur z wnętrza rdzeni (bo niestety nie potrafi). Tak to sobie można temperatury porónywać
Laboratoryjny czujnik pomiarowy skalibrowany na 6 punktach na krzywej pomiaru. Kalibracja i certyfikacja czujnika przeprowadzona przez GUM (Glowny Urzad Miar). Sposob mocowania czujnika w miare fizycznych mozliwosci identyczny tak aby zachowac warunki pomiarowe. Z calym szacunkiem ale dotykanie radiatora to rownie dobra metoda co programy. Ale jak bardzo sobie zyczysz to zapraszam bo i C2D i x2 i opterona moge udostepnic do "dotykania" radiatora
przeciez najwazniejszym zalozeniem bylo wydac procka w technologii 65nm i przez to zmniejszenie poboru mocy, szkoda tylko tak slabego OC ale coz. za kilka tygodnii wyjdzi bardziej dopracowany i bedzie bycmoze konkurowal z C2D, (przynajmniej 6300
Jesli AMD nie poprawi swojego procesu i uzysku to moze byc kicha przy K8L bo to naprawde bedzie wielki kawal krzemu (i tak samo wielka cena).
Kiedy w końcu na PCLabie zobacze K O N K R E T N E podkręcanie proca ??
Bo hasło ze kręci sie o 10% to dosłowna, kompletna PORAŻKA !!!