Zauważyłem, że PCI w stosunku do częstotliwości ma całkiem korzystne transfery, dlaczego przeszliśmy na PCIe zamiast podnieść częstotliwość PCI? Pewnie odpowiedź jest banalna, ale nie znam się, to się... zapytam
Edit: tak mi się wydaje, że korzystniej byłoby mieć jedno złączę PCI/AGP wciąż rozwijane i przyspieszane a resztę sprzętu na PCIe.
Zauważyłem, że PCI w stosunku do częstotliwości ma całkiem korzystne transfery, dlaczego przeszliśmy na PCIe zamiast podnieść częstotliwość PCI? Pewnie odpowiedź jest banalna, ale nie znam się, to się... zapytam
Edit: tak mi się wydaje, że korzystniej byłoby mieć jedno złączę PCI/AGP wciąż rozwijane i przyspieszane a resztę sprzętu na PCIe.
Z tego co kojarzę to dane mogły płynąć w tym samym czasie tylko w jednym kierunku tak jak na drodze jedno kierunkowej na której ruch jest puszczany raz z jednej a raz z drugiej strony, PCIe nie ma tego problemu tam dane płyną równocześnie w obu kierunkach.
Czwórka powinna rozwiązać problem małej ilości linii PCI-e w średniej półce, no chyba, że Intel zamiast 16 linii wprowadzi 6 linii PCI-e 4.0
Wyprowadzi pewnie 16... tyle, że co to zmieni? dalej będą dla max 2 slotów, a reszta będzie z chipsetu? Chyba, że wprowadzą dmi4.0 o 2x większej przepustowości.
Zauważyłem, że PCI w stosunku do częstotliwości ma całkiem korzystne transfery, dlaczego przeszliśmy na PCIe zamiast podnieść częstotliwość PCI?
PCI zastąpiono przez PCIe z tego samego powodu z którego porzucono IDE na rzecz SATA. PCI i IDE były interfejsami równoległymi, dane przesyłane były w wielu liniach obok siebie, nie można było bez końca podnosić taktowania, ponieważ sygnały z poszczególnych linii zakłócały się wzajemnie. PCIe jest interfejsem szeregowym, gdzie dane grzecznie czekają sobie w kolejce zamiast być wysyłane równolegle. W jednym takcie zegara można przesłać o wiele mniej informacji, jednak taktowanie można podnosić bez ograniczeń znanych z interfejsów równoległych, więc przy odpowiednim podniesieniu zegara taki interfejs okazuje się szybszy.
i dalej kaganiec w postaci 75W
Bo przecież nie da się zrobić 150W przez port.
A potem upychaj grafiki w serwerze - bo tam najszybciej dojdzie do aplikacji tego standardu. W mainstramie to raczej pojedyńcze przypadki, że PCI-EX nie wystarcza (prędzej ilość linii a nie jej przepustowość).
ps - wiadomo coś o standardzie 100 GB po kablu?
Czas by wzięli się w końcu za przestarzały standard ATX...
Intel proponował BTX, nikt tematu nie podłapał. Co byś zmienił w ATX, skoro zbyt wielu problemów z nim nie ma?
BTX to był praktycznie odwrócony atx...
Zmienić można wiele, a nie każdy slot wpinany w innną stronę.
Socket na CPU, Socket na GPU, pomiędzy nimi wspólna pamięć GDDR6+cashe edram/optane.
Normalne złącze zasilania zamiast wielkiego 24pin+4
Dwustronne lutowania wyjść/układów na ITX(tak jak w raspberry pi i podobnych) + zasilacze ITX/wbudowane/zewn. na usb3.1.
Intel proponował BTX, nikt tematu nie podłapał. Co byś zmienił w ATX, skoro zbyt wielu problemów z nim nie ma?
BTX to był praktycznie odwrócony atx...
Zmienić można wiele, a nie każdy slot wpinany w innną stronę.
Socket na CPU, Socket na GPU, pomiędzy nimi wspólna pamięć GDDR6+cashe edram/optane.
Normalne złącze zasilania zamiast wielkiego 24pin+4
Dwustronne lutowania wyjść/układów na ITX(tak jak w raspberry pi i podobnych) + zasilacze ITX/wbudowane/zewn. na usb3.1.
Standard płyt dla procesorów SoC arm.
Ale BTX miał za to znacznie lepszy przepływ powietrza, na czym skorzystaliby przede wszystkim domowi górnicy i ludzie z referencyjnymi kartami graficznymi - czyli z suszarkami - zawsze kilka dB mniej.
Z punktu wydajności lepiej jest, żeby CPU i GPU miały osobne pamięci - mniejsze opóźnienia i brak problemu z zarządzaniem nią, bo do tego potrzebny by był dodatkowy kontroler. Już lepsze byłoby rozszerzanie pamięci GPU bezpośrednio na karcie.
Wtyczka 24-pin zła nie jest - odwrotnie jej nie włożysz, a podłączenie trudne nie jest. Gorzej z jej odłączeniem, ale tak jest z każdą tego typu - spróbuj odłączyć 4-pin od wentylatorów GPU. Mi to zajęło 10 minut i mało jej nie rozwaliłem.
Z USB3.1 nie wyciągniesz więcej niż 4,5W - wystarczy co najwyżej na wiatraczek i lampkę. Z Type-C już 15W, więc na najmniej prądożerne zestawy dwie takie już by wystarczyły. Myślałeś pewnie o powered USB - do 144W, choć nie wiem jak popularny jest ten standard.
Generalnie z ATX zbyt wielu problemów nie ma, gorzej robi się przy mniejszych wersjach ATX i ITX - tam często dłuższa karta graficzna zasłania porty SATA (zresztą mam tak w swoim komputerze) albo jej obudowa całkowicie blokuje dostęp do zaczepów kości RAM - przypadłość mojego drugiego komputera. A skoro nie ma problemów, to żaden producent płyt głównych nie będzie produkować następcy z kosmetycznymi zmianami - a wtedy mamy porażkę jeszcze większą niż BTX.
BTX to był praktycznie odwrócony atx...
Zmienić można wiele, a nie każdy slot wpinany w innną stronę.
Socket na CPU, Socket na GPU, pomiędzy nimi wspólna pamięć GDDR6+cashe edram/optane.
Normalne złącze zasilania zamiast wielkiego 24pin+4
Dwustronne lutowania wyjść/układów na ITX(tak jak w raspberry pi i podobnych) + zasilacze ITX/wbudowane/zewn. na usb3.1.
Standard płyt dla procesorów SoC arm.
Ale BTX miał za to znacznie lepszy przepływ powietrza, na czym skorzystaliby przede wszystkim domowi górnicy i ludzie z referencyjnymi kartami graficznymi - czyli z suszarkami - zawsze kilka dB mniej.
Z punktu wydajności lepiej jest, żeby CPU i GPU miały osobne pamięci - mniejsze opóźnienia i brak problemu z zarządzaniem nią, bo do tego potrzebny by był dodatkowy kontroler. Już lepsze byłoby rozszerzanie pamięci GPU bezpośrednio na karcie.
Wtyczka 24-pin zła nie jest - odwrotnie jej nie włożysz, a podłączenie trudne nie jest. Gorzej z jej odłączeniem, ale tak jest z każdą tego typu - spróbuj odłączyć 4-pin od wentylatorów GPU. Mi to zajęło 10 minut i mało jej nie rozwaliłem.
Z USB3.1 nie wyciągniesz więcej niż 4,5W - wystarczy co najwyżej na wiatraczek i lampkę. Z Type-C już 15W, więc na najmniej prądożerne zestawy dwie takie już by wystarczyły. Myślałeś pewnie o powered USB - do 144W, choć nie wiem jak popularny jest ten standard.
Generalnie z ATX zbyt wielu problemów nie ma, gorzej robi się przy mniejszych wersjach ATX i ITX - tam często dłuższa karta graficzna zasłania porty SATA (zresztą mam tak w swoim komputerze) albo jej obudowa całkowicie blokuje dostęp do zaczepów kości RAM - przypadłość mojego drugiego komputera. A skoro nie ma problemów, to żaden producent płyt głównych nie będzie produkować następcy z kosmetycznymi zmianami - a wtedy mamy porażkę jeszcze większą niż BTX.
że co niby lepsze? Chyba jak zrobisz sobie w takim btx airduct z frontowego wentylatora do procesora. Bez koszyka na dyski, to atx ma rownie skuteczny przepływ jak nie lepszy, bo wtedy na całym froncie można dać 3 wentylatory 120mm.
BTX miało sens w oemach, w składanych zestawach atx było bardziej uniwersalne.
Skoro chłopcy-ryzenowcy będą siedzieć na 3.0(AM4) do 2020 roku
a co jeśli port nie zmieni się technicznie i fizycznie ? swap procka i masz nowe PCI-E, w obozie Intela każda wymówka lepsza niż żadna...
Port się technicznie nie zmieni, jak zawsze będzie zachowana wsteczna kompatybilność, zatem jak by wpakowali nowszy kontroler do CPU, a sam procesor zachowa kompatybilność z obecnym AM4 to nie będzie przeszkód aby odpalić nowszy standard, ta sama zasada z płytami P67/Z68 bez przełączników SLI bądź z przełącznikami Gen3, wsadzałeś Sandy miałeś 2.0, wrzuciłeś Ivy i wskakiwało na 3.0
No to najbliższe 10 lat widzę, że fotonika nie wejdzie do PC nawet w zakresie linii transmisyjnych. PCI-e 5.0 32GHz No jeszcze parę kroków w podwajaniu i przejdą w naturalny sposób na podczerwień
Czwórka powinna rozwiązać problem małej ilości linii PCI-e w średniej półce, no chyba, że Intel zamiast 16 linii wprowadzi 6 linii PCI-e 4.0
Wyprowadzi pewnie 16... tyle, że co to zmieni? dalej będą dla max 2 slotów, a reszta będzie z chipsetu? Chyba, że wprowadzą dmi4.0 o 2x większej przepustowości.
Skąd ten pomysł, że tylko dla dwóch slotów?
Czy to nie zależy od producentów płyt głównych?
Edit: tak mi się wydaje, że korzystniej byłoby mieć jedno złączę PCI/AGP wciąż rozwijane i przyspieszane a resztę sprzętu na PCIe.
Edit: tak mi się wydaje, że korzystniej byłoby mieć jedno złączę PCI/AGP wciąż rozwijane i przyspieszane a resztę sprzętu na PCIe.
Z tego co kojarzę to dane mogły płynąć w tym samym czasie tylko w jednym kierunku tak jak na drodze jedno kierunkowej na której ruch jest puszczany raz z jednej a raz z drugiej strony, PCIe nie ma tego problemu tam dane płyną równocześnie w obu kierunkach.
Wyprowadzi pewnie 16... tyle, że co to zmieni?
Pytanie tylko po co?
Skoro chłopcy-ryzenowcy będą siedzieć na 3.0(AM4) do 2020 roku
Pytanie tylko po co?
Skoro chłopcy-ryzenowcy będą siedzieć na 3.0(AM4) do 2020 roku
a co jeśli port nie zmieni się technicznie i fizycznie ? swap procka i masz nowe PCI-E, w obozie Intela każda wymówka lepsza niż żadna...
Pytanie tylko po co?
Skoro chłopcy-ryzenowcy będą siedzieć na 3.0(AM4) do 2020 roku
a co jeśli port nie zmieni się technicznie i fizycznie ? swap procka i masz nowe PCI-E, w obozie Intela każda wymówka lepsza niż żadna...
marzenia to już ostatnia rzecz która wam pozostała.
PCI zastąpiono przez PCIe z tego samego powodu z którego porzucono IDE na rzecz SATA. PCI i IDE były interfejsami równoległymi, dane przesyłane były w wielu liniach obok siebie, nie można było bez końca podnosić taktowania, ponieważ sygnały z poszczególnych linii zakłócały się wzajemnie. PCIe jest interfejsem szeregowym, gdzie dane grzecznie czekają sobie w kolejce zamiast być wysyłane równolegle. W jednym takcie zegara można przesłać o wiele mniej informacji, jednak taktowanie można podnosić bez ograniczeń znanych z interfejsów równoległych, więc przy odpowiednim podniesieniu zegara taki interfejs okazuje się szybszy.
Intel proponował BTX, nikt tematu nie podłapał. Co byś zmienił w ATX, skoro zbyt wielu problemów z nim nie ma?
Bo przecież nie da się zrobić 150W przez port.
A potem upychaj grafiki w serwerze - bo tam najszybciej dojdzie do aplikacji tego standardu. W mainstramie to raczej pojedyńcze przypadki, że PCI-EX nie wystarcza (prędzej ilość linii a nie jej przepustowość).
ps - wiadomo coś o standardzie 100 GB po kablu?
PCIe jest interfejsem szeregowym
tak ale tylko w wersji x1, bo na przykład x16 ma już 16 linii więc w sumie staje się interfejsem równoległym
Intel proponował BTX, nikt tematu nie podłapał. Co byś zmienił w ATX, skoro zbyt wielu problemów z nim nie ma?
BTX to był praktycznie odwrócony atx...
Zmienić można wiele, a nie każdy slot wpinany w innną stronę.
Socket na CPU, Socket na GPU, pomiędzy nimi wspólna pamięć GDDR6+cashe edram/optane.
Normalne złącze zasilania zamiast wielkiego 24pin+4
Dwustronne lutowania wyjść/układów na ITX(tak jak w raspberry pi i podobnych) + zasilacze ITX/wbudowane/zewn. na usb3.1.
Standard płyt dla procesorów SoC arm.
Zatem, na co komu DMI x.x ?
A 128GB/s to przepustowość porównywalna z Quad Chanel DDR4 o taktowaniu efektywnym 4000MHz albo VRAMu kart pokroju GTX 1050 Ti.
Intel proponował BTX, nikt tematu nie podłapał. Co byś zmienił w ATX, skoro zbyt wielu problemów z nim nie ma?
BTX to był praktycznie odwrócony atx...
Zmienić można wiele, a nie każdy slot wpinany w innną stronę.
Socket na CPU, Socket na GPU, pomiędzy nimi wspólna pamięć GDDR6+cashe edram/optane.
Normalne złącze zasilania zamiast wielkiego 24pin+4
Dwustronne lutowania wyjść/układów na ITX(tak jak w raspberry pi i podobnych) + zasilacze ITX/wbudowane/zewn. na usb3.1.
Standard płyt dla procesorów SoC arm.
Ale BTX miał za to znacznie lepszy przepływ powietrza, na czym skorzystaliby przede wszystkim domowi górnicy i ludzie z referencyjnymi kartami graficznymi - czyli z suszarkami - zawsze kilka dB mniej.
Z punktu wydajności lepiej jest, żeby CPU i GPU miały osobne pamięci - mniejsze opóźnienia i brak problemu z zarządzaniem nią, bo do tego potrzebny by był dodatkowy kontroler. Już lepsze byłoby rozszerzanie pamięci GPU bezpośrednio na karcie.
Wtyczka 24-pin zła nie jest - odwrotnie jej nie włożysz, a podłączenie trudne nie jest. Gorzej z jej odłączeniem, ale tak jest z każdą tego typu - spróbuj odłączyć 4-pin od wentylatorów GPU. Mi to zajęło 10 minut i mało jej nie rozwaliłem.
Z USB3.1 nie wyciągniesz więcej niż 4,5W - wystarczy co najwyżej na wiatraczek i lampkę. Z Type-C już 15W, więc na najmniej prądożerne zestawy dwie takie już by wystarczyły. Myślałeś pewnie o powered USB - do 144W, choć nie wiem jak popularny jest ten standard.
Generalnie z ATX zbyt wielu problemów nie ma, gorzej robi się przy mniejszych wersjach ATX i ITX - tam często dłuższa karta graficzna zasłania porty SATA (zresztą mam tak w swoim komputerze) albo jej obudowa całkowicie blokuje dostęp do zaczepów kości RAM - przypadłość mojego drugiego komputera. A skoro nie ma problemów, to żaden producent płyt głównych nie będzie produkować następcy z kosmetycznymi zmianami - a wtedy mamy porażkę jeszcze większą niż BTX.
BTX to był praktycznie odwrócony atx...
Zmienić można wiele, a nie każdy slot wpinany w innną stronę.
Socket na CPU, Socket na GPU, pomiędzy nimi wspólna pamięć GDDR6+cashe edram/optane.
Normalne złącze zasilania zamiast wielkiego 24pin+4
Dwustronne lutowania wyjść/układów na ITX(tak jak w raspberry pi i podobnych) + zasilacze ITX/wbudowane/zewn. na usb3.1.
Standard płyt dla procesorów SoC arm.
Ale BTX miał za to znacznie lepszy przepływ powietrza, na czym skorzystaliby przede wszystkim domowi górnicy i ludzie z referencyjnymi kartami graficznymi - czyli z suszarkami - zawsze kilka dB mniej.
Z punktu wydajności lepiej jest, żeby CPU i GPU miały osobne pamięci - mniejsze opóźnienia i brak problemu z zarządzaniem nią, bo do tego potrzebny by był dodatkowy kontroler. Już lepsze byłoby rozszerzanie pamięci GPU bezpośrednio na karcie.
Wtyczka 24-pin zła nie jest - odwrotnie jej nie włożysz, a podłączenie trudne nie jest. Gorzej z jej odłączeniem, ale tak jest z każdą tego typu - spróbuj odłączyć 4-pin od wentylatorów GPU. Mi to zajęło 10 minut i mało jej nie rozwaliłem.
Z USB3.1 nie wyciągniesz więcej niż 4,5W - wystarczy co najwyżej na wiatraczek i lampkę. Z Type-C już 15W, więc na najmniej prądożerne zestawy dwie takie już by wystarczyły. Myślałeś pewnie o powered USB - do 144W, choć nie wiem jak popularny jest ten standard.
Generalnie z ATX zbyt wielu problemów nie ma, gorzej robi się przy mniejszych wersjach ATX i ITX - tam często dłuższa karta graficzna zasłania porty SATA (zresztą mam tak w swoim komputerze) albo jej obudowa całkowicie blokuje dostęp do zaczepów kości RAM - przypadłość mojego drugiego komputera. A skoro nie ma problemów, to żaden producent płyt głównych nie będzie produkować następcy z kosmetycznymi zmianami - a wtedy mamy porażkę jeszcze większą niż BTX.
BTX miało sens w oemach, w składanych zestawach atx było bardziej uniwersalne.
Pytanie tylko po co?
Skoro chłopcy-ryzenowcy będą siedzieć na 3.0(AM4) do 2020 roku
a co jeśli port nie zmieni się technicznie i fizycznie ? swap procka i masz nowe PCI-E, w obozie Intela każda wymówka lepsza niż żadna...
Port się technicznie nie zmieni, jak zawsze będzie zachowana wsteczna kompatybilność, zatem jak by wpakowali nowszy kontroler do CPU, a sam procesor zachowa kompatybilność z obecnym AM4 to nie będzie przeszkód aby odpalić nowszy standard, ta sama zasada z płytami P67/Z68 bez przełączników SLI bądź z przełącznikami Gen3, wsadzałeś Sandy miałeś 2.0, wrzuciłeś Ivy i wskakiwało na 3.0
Wyprowadzi pewnie 16... tyle, że co to zmieni?
Skąd ten pomysł, że tylko dla dwóch slotów?
Czy to nie zależy od producentów płyt głównych?