komentarze
MasterOverZobacz profil
Poziom ostrzeżenia: 0%
MasterOver2010.08.21, 23:13
Czyli technologia, którą posiada mój serwerek oparty o K6-2 400 umarła?

Technologia idzie do przodu, coś umiera, by mogło się narodzić coś lepszego.;)
mielcu3Zobacz profil
Poziom ostrzeżenia: 0%
mielcu32010.08.21, 23:06
Raphael1 @ 2010.08.20 20:23  Post: 404797
KowaldinoRlz @ 2010.08.20 20:04  Post: 404787
Znowu się zaczyna wspominanie,kto jaki config miał 15 lat temu.


Proszę bardzo, 'słowo stało się ciałem'

mocna Amiga dość długo
potem K7
Athlon 2000+ rdzeń Palomino bardzo wykręcony/odporny na OC
256MB DDR333
GF4 Ti 128/128
1600@1200
i szał w gaciach

pochwal się kolego co miałeś w budzie z amigi ? a ja pochwalę się swoją :)
mielcu3Zobacz profil
Poziom ostrzeżenia: 0%
mielcu32010.08.21, 23:01
prOmen96 @ 2010.08.20 19:49  Post: 404778
@Hyde: To powiedz to mojej siostrze: byłej posiadaczce Commodore C64 ^^ Ehh, ja niedawno z kolegą odkopaliśmy sprawny komputer z 98' (!) z Rivą TNT2, Duronem 800MHz i 128MB RAM :) Wg. mnie jeśli chodzi o AMD to on ma najpiękniejszą historię procesorów :)

nie sądzę że ten komputer jest z 98 roku ponieważ w tym roku nie było jeszcze procesorów duron, a nie było ich ponieważ amd wypuściło pierwszego athlona w 99 roku a jak wiadomo durony powstały na bazie athlonów :P
JKZorbaZobacz profil
Poziom ostrzeżenia: 0%
JKZorba2010.08.21, 23:00
A ja zastanawiam się gdzie dzisiaj byłoby AMD gdyby nie kupiło NexGen-a w 1996 ?
adam1004aZobacz profil
Poziom ostrzeżenia: 0%
adam1004a2010.08.21, 22:48
jak wspominac to na calego pc at olivetti z firmy escom amd 286 20 Mhz 120mb hdd 1mb ram. steorwnik do usb i ems. monek 14' kolor to byl szprzet potem dokupilem kola sb pro bo covox mnie do szalu doprowadzal. nazywalo sie to sund galaxy nx pro
TelvasZobacz profil
Poziom ostrzeżenia: 0%
Telvas2010.08.21, 22:33
Assassin @ 2010.08.21 20:33  Post: 405170
...
Oczywistym jest, że dobrze zaprojektowany, nowoczesny i przemyślany procesor x86 będzie dużo lepszy od przeciętnego RISCa.
...

x86 to tylko jedna (choć najpopularniejsza) architektura stworzona wg. 'filozofii' CISC.
RISC jest przeciwieństwem CISC, a nie architekturą. Ciężko porównywać architekturę (x86) ze sposobem organizacji logiki i instrukcji układu (CISC/RISC) ;)
RoXallZobacz profil
Poziom ostrzeżenia: 0%
RoXall2010.08.21, 21:39
prOmen96 @ 2010.08.20 19:49  Post: 404778
@Hyde: To powiedz to mojej siostrze: byłej posiadaczce Commodore C64 ^^ Ehh, ja niedawno z kolegą odkopaliśmy sprawny komputer z 98' (!) z Rivą TNT2, Duronem 800MHz i 128MB RAM :) Wg. mnie jeśli chodzi o AMD to on ma najpiękniejszą historię procesorów :)

Sam miałem comara 64 a komputer wymieniony przez Ciebie nie pochodzi z lat 98 a znaczniej później okolice 2000-2001r.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2010.08.21, 21:01
FunnyPunch @ 2010.08.21 20:49  Post: 405171
@Assasin - wracaj do swojego avatara, ok? Bo myślałem, że się ktoś podszywa.

Znudził mi się ;P

A RISC nie jest gorszy, wręcz przeciwnie. Nie oznacza to jednak, że każdy procesor na architekturze RISC niejako z urzędu jest lepszy od procesora x86. Po prostu żeby zrobić równie dobry procesor x86 trzeba się trochę bardziej wysilić.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.08.21, 20:55
RISC - bazuje na POWER ISA 2.03 jeśli mnie pamięć nie myli czyli okolice POWER4.
Niezbyt udane to rzeczywiście było G5 czyli PowerPC 970, ale jak już wcześniej napisałem IBM to zwisało, a Motorola jakiś czas wcześniej wydzieliła Freescale i zasadniczo po G4 odpuściła sobie maczki. Poza tym wystarczy spojrzeć np. w czasy P4 kontra G4 - ilość tranzystorów, wydajność SIMD (SSE2 vs AltiVec) czy pobór prądu - wiele w x86 się zmieniło na lepsze, ale nie DOŚĆ WIELE.
FunnyPunchZobacz profil
Poziom ostrzeżenia: 0%
FunnyPunch2010.08.21, 20:49
@Assasin - wracaj do swojego avatara, ok? Bo myślałem, że się ktoś podszywa.

ARM są narazie tylko dobre na rynki tabletów, komórek itp. W przyszłości się to powinno nieco zmienić. A co do tego, że RISC jest gorszy, to czy ktoś wie jakiego typu procesorem jest Cell? RISC czy CISC? Bo nawet teraz cell jest dość mocny.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2010.08.21, 20:33
Architektura architekturą, ale nie tylko to się liczy. Schyłkowe procesory POWER wykorzystywane przez Apple'a były prądożerne i wolne. Oczywistym jest, że dobrze zaprojektowany, nowoczesny i przemyślany procesor x86 będzie dużo lepszy od przeciętnego RISCa.
Zwłaszcza w przypadku wydajniejszych procesorów różnice w architekturze się zacierają i na pierwszy plan wychodzą inne kwestie. W przypadku procesorów energooszczędnych trudniej już ominąć ograniczenia architektury i tu bardziej widać wady x86, choć szczerze mówiąc jeśli chodzi o wydajność to dopiero Cortex A9 dogonił Atoma.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.08.21, 20:30
Bo miało tylko jednego producenta - IBM który stroił fochy bo chciał się skupić na serwerach i nie zależało mu na opracowaniu energooszczędnego procesora dla notebooków. Wykupili PA Semi razem z świetnym prockiem do takich właśnie zastosowań (prawdopodobnie trafi do Amiga X1000). I cisza...żadnego nowego projektu. No dobra, niby technologie PA Semi siedzą w iPadzie. Ale nie PWRficient.
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2010.08.21, 20:04
Promilus1984 @ 2010.08.21 19:33  Post: 405161
sevae @ 2010.08.21 18:59  Post: 405154
Jak wasze rozważania na temat wydajności i energooszczędności RISC vs x86 (CISC pseudo RISC) mają się do PowerPC z którego Apple zrezygnowało na rzecz Core2Duo?

A jak się odniesiesz do specyfikacji PWRficient? Apple wykupiło producenta PA Semi i... cisza.

Nijak. To nie moja działka. Ale jak już tak porównujecie w teorii to chciałbym abyście porównali na przykładzie. Nie mam takiej wiedzy jak Wy (jako stary gracz tak hobbistycznie się interesuję takimi sprawami żeby nie być całkowitym ignorantem :P ) i chciałbym się dowiedzieć dlaczego Apple zrezygnowało waszym zdaniem z genialnego RISC na rzecz x86.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.08.21, 19:33
sevae @ 2010.08.21 18:59  Post: 405154
Jak wasze rozważania na temat wydajności i energooszczędności RISC vs x86 (CISC pseudo RISC) mają się do PowerPC z którego Apple zrezygnowało na rzecz Core2Duo?

A jak się odniesiesz do specyfikacji PWRficient? Apple wykupiło producenta PA Semi i... cisza.
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2010.08.21, 18:59
Jak wasze rozważania na temat wydajności i energooszczędności RISC vs x86 (CISC pseudo RISC) mają się do PowerPC z którego Apple zrezygnowało na rzecz Core2Duo?
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2010.08.21, 17:26
SSE miało o tyle znaczenie, że w czasach pierwszych Athlonów 64, Athlony XP i pochodne Semprony nadal były sprzedawane jako lowend (podobnie jak dzisiaj Intele na LGA775). Procesory te nie miały SSE2 (które P4 miały już od dawna), więc w tych czasach SSE to był najbardziej zaawansowany zestaw instrukcji obsługiwany przez wszystkie procesory na rynku.
FunnyPunchZobacz profil
Poziom ostrzeżenia: 0%
FunnyPunch2010.08.21, 16:52
Promilus1984 @ 2010.08.21 16:43  Post: 405128
@FunnyPunch - napisałem wyraźnie K7 nie miało SSE aż do Palomino i thoroughbred. To rdzenie będące podstawą Athlona XP (później jeszcze Barton). Ale K7 to nie tylko XP - XP to w zasadzie końcowe modele K7... od 600MHz (IIRC) do ~1400 cały czas było 3DNow! oraz Advanced 3DNow! - I mimo wszystko AMD nie traciło względem SSE Intela. Jak wcześniej napisałem tak naprawdę era SSE zaczęła się od SSE2.


Mój błąd. Czytanie ze zrozumieniem na ogół nie jest dla mnie problemem, ale jednak czasem skrewię ;) . I masz racje, że pierwsze SSE, było 'lepsze' tylko dlatego, że było u Intela, który był mimo wydajniejszych produktów ze stajni AMD bardziej popularny.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.08.21, 16:43
@FunnyPunch - napisałem wyraźnie K7 nie miało SSE aż do Palomino i thoroughbred. To rdzenie będące podstawą Athlona XP (później jeszcze Barton). Ale K7 to nie tylko XP - XP to w zasadzie końcowe modele K7... od 600MHz (IIRC) do ~1400 cały czas było 3DNow! oraz Advanced 3DNow! - I mimo wszystko AMD nie traciło względem SSE Intela. Jak wcześniej napisałem tak naprawdę era SSE zaczęła się od SSE2.
TelvasZobacz profil
Poziom ostrzeżenia: 0%
Telvas2010.08.21, 16:14
FunnyPunch @ 2010.08.21 15:54  Post: 405119
Promilus1984 @ 2010.08.21 12:00  Post: 405072
@Stan - 3DNow! w zoptymalizowanych sterach do Voodoo dawało bardzo wiele więc znów o takim koszmarze bez realnego zastosowania nie opowiadaj.
http://www.xbitlabs.com/articles/cpu/display/k6-iii.html
30% więcej w Q2 na VooDoo z 3DNow! Szybko pojawiło się SSE, którego i K7 nie obsługiwało aż do Palomino i thoroughbred (jak dobrze pamiętam) więc 3DNow! było nadal w użytkowaniu. Gdy zarówno intel jak i amd mieli już SSE2 które rzeczywiście mogło zastąpić w większości x87 to zarówno czyste SSE jak i 3DNow! przestało mieć większe znaczenie.
EDIT - zapomniałbym - super socket 7 to także 100MHz RAM i do tego 3 poziomowa struktura cache (z L3 na płycie w wypadku K6-III, K6-2+ oraz K6-III+) i zasadniczo jest to ciut lepsze rozwiązanie niż samo PC100. Tak, wiem ile było problemów różnorakich z alladinami +agp itp. itd.


Thoroughbred B napewno miał SSE. Miałem Athlona 2200+ XP na tym rdzeniu i pamiętam. A co do RISC-a w x86, to przepraszam, upraszczałem. Oczywiście chodziło mi o wiele naleciałości, które zbliżyły x86 do standardu RISC-a. I tak 'tłumaczenie' tych starych instrukcji CISC-owych, które wciąż są wykorzystywane, na te zrozumiałe dla dzisiejszego procesora mocno wali po wydajności. Jak ktoś wyżej napisał wystarczy porównać wydajność normalnie napisanej instrukcji, z instrukcją napisaną w SSE. Część przyspieszenia, będzie wynikało z tego, że zajmuje się tym dedykowana jednostka, ale większość z tego, że kod nie musi być dekodowany i dopiero wtedy uruchamiany. Wszyscy tu myślą, że dekodowanie wogóle nie zabiera czasu.

x86 nigdy nie było zbliżone do RISC. To od samego początku jest CISC, i w stronę wręcz karykaturalnie wyolbrzymionego CISC wciąż brnie. Pewnie, dziesiątki specjalizowanych instrukcji, przyspieszających obliczenia używane przy multimediach czy szyfrowaniu zwiększają wydajność w wielu zastosowaniach. Ale jednocześnie pogarszają wydajność całego systemu. Większa ilość podukładów to bardziej skomplikowane struktury zarządzania i przełączania, to więcej szyn danych i sterujących. To dłuższy czas dekodowanie instrukcji, przesyłania dodatkowych danych, większe czasy propagacji przez kolejne warstwy logiki układu.

Wiadomo, że komputer szyfrujący przez 90% czasu dane zrobi olbrzymi użytek z dodatkowych instrukcji np. dedykowanych dla AES. Ale np. dla maszyny, która nigdy szyfrowania na 'oczy' nie zobaczy, takie instrukcje to swego rodzaju balast, w pewnym minimalnym stopniu spowalniający wykonywanie innych instrukcji.
Czasem są różne jazdy w stylu 'spodziewaliśmy się po architekturze i zegarze większej wydajności, ale ten CPU nie spełnił oczekiwań; wydaje się nam, że to wina kontrolera pamięci, albo [bla, bla, bełku, bełku]'.
'Nowotwór' listy rozkazów jest jedną z tysięcy przyczyn, mogących takie cuda powodować - ale prawdę na ten temat znają w zasadzie tylko inżynierowie Intela... ;]

Niestety nie można sobie wybrać CPU z takimi a takimi 'power-up'ami', a resztę amputować :P Więc Intel i AMD starają się zapewnić programistom jak najmniejszy zestaw jak najprzydatniejszych instrukcji. Różnie im się to udaje :P Tu akurat poszli po rozum do głowy i wymiatają w końcu śmieci spod dywanu.
FunnyPunchZobacz profil
Poziom ostrzeżenia: 0%
FunnyPunch2010.08.21, 15:54
Promilus1984 @ 2010.08.21 12:00  Post: 405072
@Stan - 3DNow! w zoptymalizowanych sterach do Voodoo dawało bardzo wiele więc znów o takim koszmarze bez realnego zastosowania nie opowiadaj.
http://www.xbitlabs.com/articles/cpu/display/k6-iii.html
30% więcej w Q2 na VooDoo z 3DNow! Szybko pojawiło się SSE, którego i K7 nie obsługiwało aż do Palomino i thoroughbred (jak dobrze pamiętam) więc 3DNow! było nadal w użytkowaniu. Gdy zarówno intel jak i amd mieli już SSE2 które rzeczywiście mogło zastąpić w większości x87 to zarówno czyste SSE jak i 3DNow! przestało mieć większe znaczenie.
EDIT - zapomniałbym - super socket 7 to także 100MHz RAM i do tego 3 poziomowa struktura cache (z L3 na płycie w wypadku K6-III, K6-2+ oraz K6-III+) i zasadniczo jest to ciut lepsze rozwiązanie niż samo PC100. Tak, wiem ile było problemów różnorakich z alladinami +agp itp. itd.


Thoroughbred B napewno miał SSE. Miałem Athlona 2200+ XP na tym rdzeniu i pamiętam. A co do RISC-a w x86, to przepraszam, upraszczałem. Oczywiście chodziło mi o wiele naleciałości, które zbliżyły x86 do standardu RISC-a. I tak 'tłumaczenie' tych starych instrukcji CISC-owych, które wciąż są wykorzystywane, na te zrozumiałe dla dzisiejszego procesora mocno wali po wydajności. Jak ktoś wyżej napisał wystarczy porównać wydajność normalnie napisanej instrukcji, z instrukcją napisaną w SSE. Część przyspieszenia, będzie wynikało z tego, że zajmuje się tym dedykowana jednostka, ale większość z tego, że kod nie musi być dekodowany i dopiero wtedy uruchamiany. Wszyscy tu myślą, że dekodowanie wogóle nie zabiera czasu.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.