Interfejs PCI w komputerze: rodzaje i przeznaczenie. Zdjęcie

Obecnie w dziedzinie złożonej elektroniki następuje aktywne i szybkie wprowadzanie nowych technologii, w wyniku których niektóre elementy systemu mogą stać się przestarzałe i nie mogą być aktualizowane itp.

W związku z tym konieczne jest podłączenie do nich różnych dodatków, dla których często wymagane są określone adaptery.

W tym artykule przyjrzymy się adapterowi PCI-E PCI, jak to działa i jakie ma funkcje.

Definicja

Co to za urządzenie i do czego służy? Ściśle mówiąc, jest to magistrala wejścia i wyjścia, która łączy się z komputerem osobistym.

Do samej tej magistrali, czyli do adaptera, można podłączyć określoną (różną w zależności od konfiguracji) liczbę zewnętrznych urządzeń peryferyjnych.

Połączenie szeregowe łączy te urządzenia peryferyjne z komputerem.

Główną cechą takiego urządzenia jest jego przepustowość.

To ona charakteryzuje (w ogólnym przypadku) jakość pracy, jej szybkość oraz szybkość komputera i połączonych w ten sposób elementów.

Charakterystyka przepustowości wyrażona jest liczbą linii przyłączeniowych (od 1 do 32).

W zależności od tej podstawowej cechy cena tego urządzenia również może się znacznie różnić. Oznacza to, że im lepsza jest ta cecha (wskaźnik jest wyższy), tym wyższy koszt takiego urządzenia. Ponadto wiele zależy od statusu producenta, niezawodności sprzętu i jego trwałości. Średnio cena zaczyna się od 250-500 rubli (dla produktów azjatyckich o niskiej przepustowości), do 2000 rubli (dla urządzeń europejskich i japońskich o dużej przepustowości).

Specyfikacje

Z technicznego punktu widzenia takie urządzenie składa się z trzech elementów:

Powyżej napisano o wyjątkowym znaczeniu przepustowości urządzenia dla jego normalnego funkcjonowania.

Co to jest przepustowość? Aby odpowiedzieć na to pytanie, musisz zrozumieć zasadę działania takiego adaptera.

Umożliwia jednoczesne dwukierunkowe (karta-peryferia i peryferyjne-do-karty) łączenie sprzętu.

W takim przypadku transmisja danych może odbywać się zarówno na jednej, jak i kilku liniach.

Im więcej takich linii, tym stabilniej działa urządzenie, tym większa jego przepustowość i tym szybsze będzie urządzenie peryferyjne.

Ważny! W zależności od ilości linii urządzenie może mieć różne konfiguracje: x1, x2, x4, x8, x12, x16, x32. Liczba wskazuje bezpośrednio liczbę torów do dwukierunkowej jednoczesnej transmisji informacji. Każdy z tych pasków składa się z dwóch par przewodów (do transmisji w dwóch kierunkach).

Jak widać z opisu, taka konfiguracja znacząco wpływa na koszt urządzenia.

Ale jakie to ma praktyczne znaczenie, czy naprawdę warto wydawać dodatkowe pieniądze przy zakupie urządzenia?

Zależy to bezpośrednio od tego, ile planujesz podłączyć do płyty głównej - im więcej, tym większa przepustowość urządzenia potrzebuje do utrzymania stabilności komputera.

Szyfrowanie

Przy takim systemie przesyłania informacji stosuje się specyficzny system, który chroni je przed zniekształceniem i utratą.

Ta metoda ochrony jest oznaczona jako 8V/10V.

Chodzi o to, że aby przesłać 8 bitów niezbędnej informacji, należy zastosować dodatkowe 2 bity usługi, aby zaimplementować zabezpieczenia i ochronę przed zniekształceniami.

Gdy taki adapter jest używany, 20% informacji serwisowych jest stale przesyłanych do komputera, który nie przenosi żadnego obciążenia i nie jest potrzebny użytkownikowi. Ale to ona, choć ładuje się (jednak bardzo nieznacznie), zapewnia stabilność magistrali i urządzeń peryferyjnych.

Fabuła

Na początku XXI wieku aktywnie wykorzystywano gniazdo rozszerzeń AGP, to właśnie z jego pomocą.

Ale w pewnym momencie osiągnięto maksymalną technicznie możliwą wydajność i konieczne stało się stworzenie nowego typu adaptera.

I wkrótce pojawiło się PCI-E - był to 2002 rok.

Natychmiast pojawiła się potrzeba adaptera, który umożliwiłby instalację nowych rozwiązań graficznych w przestarzałym gnieździe rozszerzeń lub odwrotnie.

Dlatego w 2002 roku wielu programistów i producentów zaczęło poważnie tworzyć taki adapter.

W tamtym czasie urządzenie miało jedną ważną cechę - możliwość uaktualnienia peceta przez wydawanie na niego minimalnych kwot, ponieważ zamiast wymiany płyty głównej wystarczył stosunkowo niedrogi adapter.

Ale rozwój nie powiódł się, ponieważ w tamtym czasie kosztowały prawie tyle samo, co pierwsze adaptery, dlatego konieczne stało się opracowanie prostszej konfiguracji adaptera.

Co ciekawe, producenci konsekwentnie zwiększali również przepustowość takich urządzeń. Jeśli dla pierwszych konfiguracji było to nie więcej niż 8 Gb/s, to dla drugiej było to już 16 Gb/s, a dla trzeciej – 64 Gb/s. Spełniło to wymagania zwiększające się obciążenia wynikające z modernizacji urządzeń peryferyjnych.

Jednocześnie sloty o różnych szybkościach transferu są kompatybilne z dowolnymi urządzeniami o niższym poziomie „szybkości”.

Oznacza to, że jeśli podłączysz platformę graficzną drugiej lub pierwszej generacji do gniazda trzeciej generacji, gniazdo automatycznie przełączy się na inny tryb prędkości odpowiadający podłączonemu urządzeniu.

Różnice między PCI i PCI-E

Jakie są konkretne różnice między tymi dwiema konfiguracjami?

Pod względem parametrów technicznych i operacyjnych PCI jest podobna do AGP, podczas gdy PCI-E jest całkowicie nowym rozwiązaniem.

Podczas gdy PCI zapewnia równoległy transfer informacji, PCI-E zapewnia transfer szeregowy, dzięki czemu osiąga się znacznie wyższą szybkość przesyłania informacji i wydajność nawet przy użyciu adaptera.

Dlaczego jest to potrzebne?

Dlaczego taki adapter jest potrzebny i do czego można go wykorzystać, czy można się bez niego obejść?

Należy rozumieć, że większość użytkowników rezygnuje z tego sprzętu, ponieważ nie jest on konieczny nawet na starych komputerach podlegających znacznemu zużyciu.

To dodatkowy sprzęt, który w niektórych przypadkach poprawi funkcjonalność twojego komputera, ale bez którego zwykły użytkownik może się obejść.

W rzeczywistości zastosowanie takiego adaptera daje tylko jedną główną zaletę - możliwość podłączenia do karty pamięci określonej liczby urządzeń peryferyjnych, podczas gdy nie da się bezpośrednio podłączyć tak wielu z nich. Na przykład w ten sposób możesz podłączyć dyskretne wideo lub oprócz głównego.

Ponadto dość wygodną funkcją może być jednoczesne szybkie wyłączanie wszystkich urządzeń peryferyjnych, jeśli to konieczne.

Na przykład w przypadku spadku wydajności komputera lub z innych powodów. W takim przypadku użytkownik nie musi przez długi czas programowo wyłączać komponentów.

Wady i możliwe problemy

Istnieje szereg istotnych wad tych urządzeń oraz problemów, które mogą powodować podczas pracy.

Najczęściej występują następujące trudności:

  • Urządzenie jest dość duże, bo nie zawsze mieści się w miniaturowych;
  • Drugi punkt automatycznie wynika z pierwszego punktu - adapter nie jest przeznaczony do pracy z laptopami;
  • Stabilna praca wielu urządzeń jest możliwa tylko w połączeniu z niskoprofilowymi kartami;
  • Zawsze istnieje możliwość awarii, oprogramowania lub technicznej (drobnej) niezgodności urządzenia z płytą główną komputera (wszystko komplikuje fakt, że większość z tych urządzeń jest deklarowana jako uniwersalna, choć w rzeczywistości pracują mniej stabilnie z wieloma niż z innymi);
  • Niektóre ilości pamięci RAM komputera są stale zajęte z powodu.

Jeśli istnieje potrzeba połączenia z płytą główną dodatkowe urządzenia, warto wypróbować tę metodę. Należy jednak pamiętać, że normalna stabilna praca jest możliwa tylko z wysokiej jakości i wydajną płytą główną i urządzeniem peryferyjnym.

W przeszłości istniały tylko dwa rodzaje dysków SSD, którymi interesował się główny nabywca: szybkie modele premium, takie jak Samsung 850 PRO, lub niedrogie, takie jak Crucial BX100 lub SanDisk Ultra II. Oznacza to, że segmentacja rynku dysków SSD była wyjątkowo słaba i chociaż konkurencja między producentami rozwijała się w zakresie wydajności i ceny, różnica między rozwiązaniami górnymi i dolnymi pozostała dość niewielka. Taki stan rzeczy wynikał częściowo z faktu, że sama technologia SSD znacznie poprawia wrażenia użytkownika z komputera, przez co problemy z implementacją dla wielu schodzą na dalszy plan. Z tego samego powodu konsumenckie dyski SSD zostały włączone do starej infrastruktury, która początkowo skupiała się na mechanicznych dyskach twardych. To znacznie ułatwiło ich implementację, jednak zakończyło SSD w dość wąskich ramach, co pod wieloma względami utrudnia zarówno wzrost przepustowości, jak i zmniejszenie opóźnień podsystemu dyskowego.

Ale do pewnego czasu ten stan rzeczy odpowiadał wszystkim. Technologia SSD była nowa, a użytkownicy przechodzący na dyski SSD byli zadowoleni z zakupu, mimo że zasadniczo otrzymywali produkty, które w rzeczywistości nie działały najlepiej, a ich wydajność była ograniczana przez sztuczne bariery. Jednak do tej pory dyski SSD można już uznać za prawdziwy główny nurt. Każdy szanujący się właściciel komputera osobistego, jeśli nie ma przynajmniej jednego dysku SSD w swoim systemie, bardzo poważnie myśli o jego zakupie w najbliższej przyszłości. W tych warunkach producenci są po prostu zmuszeni pomyśleć o wdrożeniu pełnej konkurencji: zlikwidowaniu wszelkich barier i przejściu do produkcji szerszych linii produktów, które zasadniczo różnią się pod względem oferowanych cech. Na szczęście przygotowano do tego wszelkie niezbędne grunty, a przede wszystkim większość twórców dysków SSD ma chęć i możliwość rozpoczęcia wypuszczania produktów, które działają nie za pośrednictwem starszego interfejsu SATA, ale za pośrednictwem znacznie wydajniejszej magistrali PCI Express.

Ponieważ przepustowość SATA jest ograniczona do 6 Gb/s, maksymalna prędkość flagowych dysków SSD SATA nie przekracza 500 MB/s. Jednak dzisiejsze dyski flash są zdolne do znacznie więcej: w końcu, jeśli się nad tym zastanowić, mają więcej wspólnego z pamięcią systemową niż z mechanicznymi dyskami twardymi. Jeśli chodzi o magistralę PCI Express, teraz jest ona aktywnie wykorzystywana jako warstwa transportowa podczas podłączania kart graficznych i innych dodatkowych kontrolerów, które wymagają szybkiej wymiany danych, takich jak Thunderbolt. Jedna linia PCI Express Gen 2 zapewnia przepustowość do 500 MB/s, podczas gdy linia PCI Express 3.0 może osiągnąć prędkość do 985 MB/s. Tym samym karta interfejsu zainstalowana w gnieździe PCIe x4 (z czterema liniami) może wymieniać dane z prędkością do 2 GB/s w przypadku PCI Express 2.0 i do prawie 4 GB/s w przypadku korzystania z PCI Express trzeciej generacji. Są to doskonałe wskaźniki, które są odpowiednie dla nowoczesnych dysków półprzewodnikowych.

Z tego, co zostało powiedziane, wynika naturalnie, że oprócz dysków SATA SSD, na rynku powinny stopniowo znajdować dystrybucję szybkie dyski wykorzystujące magistralę PCI Express. I to się naprawdę dzieje. W sklepach można znaleźć kilka modeli konsumenckich dysków SSD wiodących producentów, wykonanych w formie kart rozszerzeń lub kart M.2 wykorzystujących różne warianty magistrali PCI Express. Postanowiliśmy je połączyć i porównać pod względem wydajności i innych parametrów.

Uczestnicy testu

Intel SSD 750 400 GB

Na rynku dysków SSD Intel kieruje się dość niestandardową strategią i nie przywiązuje zbytniej wagi do rozwoju dysków SSD dla segmentu konsumenckiego, koncentrując się na produktach serwerowych. Jednak jego propozycje nie stają się nieciekawe, zwłaszcza jeśli chodzi o dysk półprzewodnikowy na magistralę PCI Express. W tym przypadku Intel zdecydował się dostosować swoją najbardziej zaawansowaną platformę serwerową do użytku w wysokowydajnym klienckim dysku SSD. Tak narodził się Intel SSD 750 400 GB, który otrzymał nie tylko imponującą charakterystykę wydajności i szereg technologii serwerowych odpowiedzialnych za niezawodność, ale także wsparcie dla nowomodnego interfejsu NVMe, o którym kilka słów należy powiedzieć osobno.




Jeśli mówimy o konkretnych ulepszeniach NVMe, to przede wszystkim redukcja kosztów ogólnych zasługuje na wzmiankę. Na przykład przesyłanie najbardziej typowych 4-kilobajtowych bloków w nowym protokole wymaga tylko jednego polecenia zamiast dwóch. A cały zestaw instrukcji sterujących został uproszczony do tego stopnia, że ​​ich przetwarzanie na poziomie sterownika zmniejsza obciążenie procesora i wynikające z tego opóźnienia o co najmniej połowę. Drugą ważną innowacją jest obsługa deep pipeliningu i wielozadaniowości, która polega na możliwości równoległego tworzenia wielu kolejek żądań zamiast dotychczasowej pojedynczej kolejki na 32 polecenia. Protokół interfejsu NVMe jest w stanie obsłużyć do 65536 kolejek, a każda z nich może zawierać do 65536 poleceń. W rzeczywistości wszelkie ograniczenia są w ogóle eliminowane, a jest to bardzo ważne w środowiskach serwerowych, gdzie do podsystemu dyskowego można przypisać ogromną liczbę jednoczesnych operacji I/O.



Ale pomimo pracy przez interfejs NVMe, Intel SSD 750 nadal nie jest serwerem, ale dyskiem konsumenckim. Tak, prawie ta sama platforma sprzętowa co w tym napędzie jest używana w dyskach SSD klasy serwerowej Intel DC P3500, P3600 i P3700, ale Intel SSD 750 wykorzystuje tańszą zwykłą MLC NAND, a poza tym firmware jest modyfikowany. Producent uważa, że ​​dzięki tym zmianom powstały produkt przypadnie do gustu entuzjastom, ponieważ łączy w sobie dużą moc, całkowicie nowy interfejs NVMe i niezbyt onieśmielający koszt.

Intel SSD 750 to karta PCIe x4 o połowie wysokości, która może korzystać z czterech linii 3.0 i osiągać sekwencyjne szybkości transferu do 2,4 GB/s oraz operacje losowe do 440 tys. IOPS. Co prawda najbardziej pojemna modyfikacja 1,2 TB jest najbardziej produktywna, natomiast wersja 400 GB, którą otrzymaliśmy do testów, jest nieco wolniejsza.



Płyta napędowa jest całkowicie pokryta pancerzem. Z przodu jest to aluminiowy radiator, a z tyłu znajduje się ozdobna metalowa płytka, która tak naprawdę nie styka się z mikroukładami. Należy zauważyć, że zastosowanie grzejnika jest tutaj koniecznością. Główny kontroler dysku Intel SSD generuje bardzo dużo ciepła, a przy dużym obciążeniu nawet dysk wyposażony w takie chłodzenie może nagrzewać się do temperatur rzędu 50-55 stopni. Ale dzięki fabrycznie zainstalowanemu chłodzeniu nie ma śladu dławienia - wydajność pozostaje stała nawet podczas ciągłego i intensywnego użytkowania.



Dysk Intel SSD 750 jest oparty na kontrolerze serwerowym Intel CH29AE41AB0, który działa z częstotliwością 400 MHz i ma osiemnaście (!) kanałów do podłączenia pamięci flash. Biorąc pod uwagę, że większość konsumenckich kontrolerów SSD ma osiem lub cztery kanały, staje się jasne, że Intel SSD 750 może faktycznie pompować znacznie więcej danych przez magistralę niż konwencjonalne modele SSD.



Jeśli chodzi o używaną pamięć flash, Intel SSD 750 nie wprowadza innowacji w tym obszarze. Jest on oparty na zwykłym procesorze MLC NAND firmy Intel, wydanym zgodnie z technologią procesu 20 nm i mającym przeplatane rdzenie 64 i 128 Gb. Należy zauważyć, że większość innych producentów dysków SSD już dawno zrezygnowała z takiej pamięci, przechodząc na układy wykonane według cieńszych standardów. A sam Intel zaczął przenosić nie tylko swojego konsumenta, ale także dyski serwerowe do pamięci 16 nm. Jednak mimo wszystko Intel SSD 750 wykorzystuje starszą pamięć, która podobno ma wyższy zasób.

Serwerowe pochodzenie dysku Intel SSD 750 można również prześledzić w fakcie, że całkowita pojemność pamięci flash tego dysku SSD wynosi 480 GiB, z czego tylko około 78 procent jest dostępne dla użytkownika. Reszta jest przeznaczona na fundusz zastępczy, technologie zbierania śmieci i ochrony danych. Intel SSD 750 realizuje tradycyjny flagowy schemat podobny do RAID 5 na poziomie chipów MLC NAND, co pozwala na pomyślne przywracanie danych nawet w przypadku całkowitej awarii jednego z chipów. Ponadto dysk Intel SSD zapewnia pełną ochronę danych przed awariami zasilania. Dysk Intel SSD 750 ma dwa kondensatory elektrolityczne, a ich pojemność wystarcza do regularnego wyłączania dysku w trybie offline.

Kingston HyperX Predator 480 GB

Kingston HyperX Predator to znacznie bardziej tradycyjne rozwiązanie w porównaniu do Intel SSD 750. Po pierwsze, działa za pośrednictwem protokołu AHCI, a nie NVMe, a po drugie, ten dysk SSD wymaga bardziej popularnej magistrali PCI Express 2.0 do połączenia z systemem. Wszystko to sprawia, że ​​wersja Kingston jest nieco wolniejsza - szczytowe prędkości dla operacji sekwencyjnych nie przekraczają 1400 MB / s, a losowe - 160 tys. IOPS. Ale HyperX Predator nie nakłada na system żadnych specjalnych wymagań - jest kompatybilny ze wszystkimi, w tym starymi platformami.

Oprócz tego napęd ma nie do końca prostą konstrukcję dwukomponentową. Sam dysk SSD jest płytą w formacie M.2, która jest uzupełniona o adapter PCI Express, który umożliwia podłączenie dysków M.2 przez zwykłe pełnowymiarowe gniazda PCIe. Adapter jest wykonany w postaci karty PCIe x4 o połowie wysokości, która wykorzystuje wszystkie cztery linie PCI Express. Dzięki tej konstrukcji firma Kingston sprzedaje HyperX Predator w dwóch wersjach: jako dysk SSD PCIe do komputerów stacjonarnych oraz jako dysk M.2 do systemów mobilnych (w tym przypadku adapter nie jest zawarty w dostawie).



Kingston HyperX Predator bazuje na kontrolerze Marvell Altaplus (88SS9293), który z jednej strony obsługuje cztery tory PCI Express 2.0, a z drugiej posiada osiem kanałów do podłączenia pamięci flash. Jest to jak dotąd najszybszy masowo produkowany kontroler SSD PCI Express firmy Marvell. Jednak wkrótce Marvell będzie miał szybszych zwolenników z obsługą NVMe i PCI Express 3.0, których nie ma w układzie Altaplus.



Ponieważ sam Kingston nie produkuje ani kontrolerów, ani pamięci, montując swoje dyski SSD z bazy elementów zakupionej od innych producentów, nie ma nic dziwnego w tym, że HyperX Predator PCIe SSD jest oparty nie tylko na kontrolerze innej firmy, ale także na 128-gigabitowe chipy MLC NAND 19 nm firmy Toshiba. Taka pamięć ma niską cenę zakupu i jest obecnie instalowana w wielu produktach firmy Kingston (i innych firm), a przede wszystkim w modelach konsumenckich.



Stosowanie takiej pamięci stworzyło jednak paradoks: pomimo tego, że zgodnie z formalnym pozycjonowaniem, Kingston HyperX Predator PCIe SSD jest produktem premium, to ma tylko trzyletnią gwarancję, a podany średni czas między awariami jest znacznie mniej niż w przypadku flagowych dysków SATA SSD innych producentów.

Kingston HyperX Predator nie oferuje również specjalnych technologii ochrony danych. Ale dysk ma stosunkowo duży obszar ukryty przed oczami użytkownika, którego rozmiar stanowi 13 procent całkowitej pojemności dysku. Zawarta w nim zapasowa pamięć flash służy do zbierania śmieci i niwelowania zużycia, ale jest głównie przeznaczana na wymianę uszkodzonych komórek pamięci.

Pozostaje tylko dodać, że konstrukcja HyperX Predator nie zapewnia żadnych specjalnych środków do odprowadzania ciepła ze sterownika. W przeciwieństwie do większości innych rozwiązań o wysokiej wydajności, ten dysk nie ma radiatora. Jednak ten dysk SSD w ogóle nie jest podatny na przegrzanie – jego maksymalne rozpraszanie ciepła jest tylko nieznacznie wyższe niż 8 watów.

OCZ Revodrive 350 480 GB

OCZ Revodrive 350 jest słusznie jednym z najstarszych konsumenckich dysków SSD PCI Express. W czasach, gdy żaden inny producent nawet nie myślał o wypuszczeniu klienckiego dysku SSD PCIe, firma OCZ miała w swojej ofercie RevoDrive 3 (X2), prototyp nowoczesnego Revodrive 350. Jednak utrzymujące się korzenie dysku PCIe OCZ sprawiają, że jest to nieco dziwne propozycja na tle obecnych konkurentów. Podczas gdy większość producentów wysokowydajnych dysków PC używa nowoczesnych kontrolerów z natywną obsługą magistrali PCI Express, Revodrive 350 ma bardzo skomplikowaną i wyraźnie nieoptymalną architekturę. Opiera się na dwóch lub czterech (w zależności od wolumenu) kontrolerach SandForce SF-2200, które są montowane w macierzy RAID poziomu zerowego.

Jeśli mówimy o modelu 480 GB OCZ Revodrive 350, który brał udział w tym teście, to w rzeczywistości jest on oparty na czterech dyskach SSD SATA o pojemności 120 GB każdy, z których każdy oparty jest na własnym układzie SF-2282 (analogowym). szeroko rozpowszechnionego SF-2281) . Następnie te elementy są łączone w pojedynczą czteroskładnikową macierz RAID 0. Jednak w tym celu używany jest nie do końca znany kontroler RAID, ale zastrzeżony procesor wirtualizacji (VCA 2.0) OCZ ICT-0262. Jest jednak bardzo podobne do tego, że pod tą nazwą kryje się odwrócony układ Marvell 88SE9548, czyli czteroportowy kontroler RAID SAS/SATA 6 Gb/s z interfejsem PCI Express 2.0 x8. Ale mimo to inżynierowie OCZ napisali własne oprogramowanie i sterownik dla tego kontrolera.



Wyjątkowość komponentu programowego RevoDrive 350 polega na tym, że nie implementuje on dość klasycznego RAID 0, ale swego rodzaju z interaktywnym równoważeniem obciążenia. Zamiast dzielić strumień danych na bloki o stałym rozmiarze i sekwencyjnie przesyłać je do różnych kontrolerów SF-2282, technologia VCA 2.0 obejmuje analizę i elastyczną redystrybucję operacji We/Wy w zależności od aktualnego zajętości kontrolerów pamięci flash. Dlatego RevoDrive 350 wygląda dla użytkownika jak dysk SSD. Nie możesz wejść do jego BIOS-u i nie można dowiedzieć się, że macierz RAID jest ukryta w trzewiach tego dysku SSD bez szczegółowego zapoznania się z upychaniem sprzętowym. Co więcej, w przeciwieństwie do konwencjonalnych macierzy RAID, RevoDrive 350 obsługuje wszystkie typowe funkcje SSD: monitorowanie SMART, TRIM i Secure Erase.

RevoDrive 350 jest dostępny jako płyty z interfejsem PCI Express 2.0 x8. Pomimo faktycznego wykorzystania wszystkich ośmiu linii interfejsu, deklarowane wskaźniki wydajności są zauważalnie niższe niż ich całkowita teoretyczna przepustowość. Maksymalna prędkość operacji sekwencyjnych jest ograniczona do 1800 MB/s, a wydajność dowolnych operacji nie przekracza 140 tys. IOPS.

Warto zauważyć, że OCZ RevoDrive 350 jest płytą PCI Express x8 o pełnej wysokości, co oznacza, że ​​jest fizycznie większa niż wszystkie inne testowane przez nas dyski SSD i dlatego nie może być instalowana w systemach niskoprofilowych. Przednia powierzchnia płyty RevoDrive 350 pokryta jest ozdobną metalową obudową, która pełni również funkcję radiatora dla podstawowego układu kontrolera RAID. Sterowniki SF-2282 znajdują się na odwrocie płytki i są pozbawione jakiegokolwiek chłodzenia.



Do utworzenia macierzy pamięci flash firma OCZ wykorzystała chipy swojej firmy macierzystej, Toshiba. Zastosowane chipy są produkowane w technologii 19 nm i mają przepustowość 64 Gbps. Całkowita ilość pamięci flash w RevoDrive 350 480 GB to 512 GB, ale 13% jest zarezerwowane na potrzeby wewnętrzne - niwelowanie zużycia i usuwanie śmieci.



Warto zauważyć, że architektura RevoDrive 350 nie jest wyjątkowa. Na rynku dostępnych jest jeszcze kilka modeli podobnych dysków SSD, które działają na zasadzie „macierzy RAID z dysków SSD SATA opartych na kontrolerach SandForce”. Jednak wszystkie takie rozwiązania, jak rozważany dysk OCZ PCIe, mają nieprzyjemną wadę – ich wydajność zapisu z czasem spada. Wynika to ze specyfiki wewnętrznych algorytmów kontrolerów SandForce, dla których operacja TRIM nie przywraca prędkości zapisu do pierwotnego poziomu.



Niepodważalny fakt, że RevoDrive 350 jest o krok poniżej następnej generacji dysków PCI Express, podkreśla również fakt, że dysk ten objęty jest jedynie trzyletnią gwarancją, a jego gwarantowany zasób zapisu to tylko 54 TB - kilka razy mniej niż konkurentów. Co więcej, pomimo tego, że RevoDrive 350 bazuje na tej samej konstrukcji co serwer Z-Drive 4500, nie posiada żadnej ochrony przed przepięciami. Jednak to wszystko nie przeszkadza firmie OCZ, z jej wrodzoną śmiałością, pozycjonować RevoDrive 350 jako rozwiązanie premium na poziomie Intel SSD 750.

Plextor M6e Black Edition 256 GB

Należy od razu zaznaczyć, że napęd Plextor M6e Black Edition jest bezpośrednim następcą znanego modelu M6e. Podobieństwo nowości do poprzednika można prześledzić prawie we wszystkim, jeśli mówimy o komponencie technicznym, a nie estetycznym. Nowy dysk SSD ma również dwuczęściową konstrukcję, w tym rzeczywisty dysk w formacie M.2 2280 oraz adapter, który pozwala na zainstalowanie go w dowolnym zwykłym gnieździe PCIe x4 (lub szybszym). Oparty jest również na ośmiokanałowym kontrolerze Marvell 88SS9183, który komunikuje się ze światem zewnętrznym za pośrednictwem dwóch linii PCI Express 2.0. Podobnie jak w poprzedniej wersji, M6e Black Edition korzysta z pamięci flash MLC firmy Toshiba.

A to oznacza, że ​​pomimo tego, że zmontowany M6e Black Edition wygląda jak karta PCI Express x4 o połowie wysokości, w rzeczywistości ten dysk SSD wykorzystuje tylko dwie linie PCI Express 2.0. Stąd niezbyt imponujące prędkości, które są tylko nieznacznie szybsze niż tradycyjne dyski SSD SATA. Wydajność paszportu na operacjach sekwencyjnych jest ograniczona do 770 MB / s, a na arbitralnie - 105 tys. IOPS. Warto zauważyć, że Plextor M6e Black Edition działa zgodnie ze starszym protokołem AHCI, co zapewnia jego szeroką kompatybilność z różnymi systemami.



Pomimo tego, że Plextor M6e Black Edition, podobnie jak Kingston HyperX Predator, jest połączeniem adaptera PCI Express i „rdzenia” w formacie M.2 płyty, nie można tego określić z przodu. Cały napęd ukryto pod figurową, czarną, aluminiową obudową, pośrodku której osadzony jest czerwony radiator, który ma odprowadzać ciepło z kontrolera i układów pamięci. Kalkulacja projektantów jest jasna: podobny schemat kolorów jest szeroko stosowany w różnych urządzeniach do gier, więc Plextor M6e Black Edition będzie harmonijnie prezentować się obok wielu płyt głównych do gier i kart graficznych większości wiodących producentów.



Macierz pamięci flash w Plextor M6e Black Edition jest zasilana przez układy Toshiba drugiej generacji 19 nm MLC NAND o przepustowości 64 Gb/s. Rezerwa wykorzystywana na fundusz odtworzeniowy i działanie wewnętrznych algorytmów niwelowania zużycia i zbierania śmieci przeznacza się na 7 procent całości. Cała reszta jest dostępna dla użytkownika.



Ze względu na zastosowanie dość słabego kontrolera Marvell 88SS9183 z zewnętrzną magistralą PCI Express 2.0 x2, dysk Plextor M6e Black Edition należy uznać za raczej wolny dysk SSD PCIe. Nie uniemożliwia to jednak producentowi odniesienia tego produktu do wyższej kategorii cenowej. Z jednej strony nadal jest szybszy niż dysk SSD SATA, a z drugiej ma dobre parametry niezawodnościowe: ma długi czas między awariami i jest objęty pięcioletnią gwarancją. Jednak nie są w nim zaimplementowane żadne specjalne technologie, które mogą chronić M6e Black Edition przed przepięciami lub zwiększać jego zasoby.

Samsung SM951 256 GB

Samsung SM951 to najbardziej nieuchwytny dysk w dzisiejszych testach. Faktem jest, że początkowo jest to produkt dla monterów komputerów, więc jest raczej wyblakły w sprzedaży detalicznej. Niemniej jednak, w razie potrzeby, nadal można go kupić, więc nie odmówiliśmy rozważenia SM951. Co więcej, sądząc po cechach, jest to bardzo szybki model. Został zaprojektowany do pracy na magistrali PCI Express 3.0 x4, wykorzystuje protokół AHCI i obiecuje imponujące prędkości: do 2150 MB/s w operacjach sekwencyjnych i do 90 000 IOPS w operacjach losowych. Ale co najważniejsze, pomimo tego wszystkiego Samsung SM951 jest tańszy niż wiele innych dysków SSD PCIe, więc szukanie go w sprzedaży może mieć bardzo konkretny przypadek biznesowy.

Kolejną cechą Samsung SM951 jest to, że jest on dostępny w formie M.2. Początkowo rozwiązanie to koncentruje się na systemach mobilnych, więc do napędu nie są dołączone żadne adaptery do pełnowymiarowych gniazd PCIe. Trudno jednak uznać to za poważną wadę - większość flagowych płyt głównych ma również na pokładzie gniazda interfejsu M.2. Ponadto niezbędne adaptery są szeroko dostępne na rynku. Sam Samsung SM951 to płyta w formacie M.2 2280, której złącze ma klucz typu M, co wskazuje na potrzebę posiadania dysku SSD na czterech liniach PCI Express.



Samsung SM951 bazuje na wyjątkowo wydajnym kontrolerze Samsung UBX, opracowanym przez producenta specjalnie dla dysków SSD PCI Express. Oparty jest na trzech rdzeniach z architekturą ARM i teoretycznie może współpracować zarówno z poleceniami AHCI, jak i NVMe. W omawianym dysku SSD w kontrolerze włączony jest tylko tryb AHCI. Ale wersja NVMe tego kontrolera będzie wkrótce dostępna w nowym konsumenckim dysku SSD, który Samsung ma wprowadzić na rynek jesienią tego roku.



Ze względu na koncentrację na OEM dla danego dysku nie jest zgłaszany okres gwarancyjny ani przewidywana trwałość. Parametry te muszą być zadeklarowane przez monterów systemów, w których będzie instalowany SM951 lub przez sprzedawców. Należy jednak zauważyć, że 3D V-NAND, który jest obecnie aktywnie promowany przez Samsunga w konsumenckich dyskach SSD jako szybszy i bardziej niezawodny rodzaj pamięci flash, nie jest używany w SM951. Zamiast tego używa zwykłego płaskiego Toggle Mode 2.0 MLC NAND, wyprodukowanego prawdopodobnie przy użyciu technologii 16 nm (niektóre źródła sugerują technologię procesu 19 nm). Oznacza to, że SM951 nie powinien mieć tak samo wysokiej wytrzymałości, jak flagowy dysk 850 PRO SATA. W tym parametrze SM951 jest bliższy zwykłym modelom klasy średniej, dodatkowo tylko 7 procent macierzy pamięci flash jest przeznaczonych na nadmiarowość w tym dysku SSD. Samsung SM951 nie ma żadnych specjalnych technologii na poziomie serwera, które chroniłyby dane przed awariami zasilania. Innymi słowy, w tym modelu nacisk kładzie się wyłącznie na szybkość pracy, a wszystko inne jest odcinane, aby obniżyć koszty.



Warto zwrócić uwagę na jeszcze jedną rzecz. Pod dużym obciążeniem Samsung SM951 wykazuje dość poważne nagrzewanie się, co w końcu może nawet doprowadzić do włączenia dławienia. Dlatego w wysokowydajnych systemach SM951 pożądane jest zorganizowanie przynajmniej przepływu powietrza, a lepiej zamknięcie go grzejnikiem.

Charakterystyka porównawcza testowanych dysków SSD


Problemy ze zgodnością

Jak każda nowa technologia, dyski SSD PCI Express nie są jeszcze w 100% bezproblemowe z żadną platformą, zwłaszcza ze starszymi. Dlatego musisz wybrać odpowiedni dysk SSD nie tylko w oparciu o cechy konsumentów, ale także mając na uwadze kompatybilność. Tutaj ważne jest, aby pamiętać o dwóch punktach.

Po pierwsze, różne dyski SSD mogą wykorzystywać różną liczbę linii PCI Express i różne generacje tej magistrali - 2.0 lub 3.0. Dlatego przed zakupem dysku PCIe musisz upewnić się, że system, w którym zamierzasz go zainstalować, ma wolne gniazdo o wymaganej przepustowości. Oczywiście szybsze dyski SSD PCIe są wstecznie kompatybilne z wolniejszymi gniazdami, ale w tym przypadku zakup szybkiego dysku SSD nie ma większego sensu – po prostu nie może osiągnąć pełnego potencjału.

Plextor M6e Black Edition ma najszerszą kompatybilność w tym sensie - wymaga tylko dwóch linii PCI Express 2.0, a takie wolne gniazdo z pewnością znajdziesz na prawie każdej płycie głównej. Kingston HyperX Predator potrzebuje już czterech linii PCI Express 2.0: wiele płyt głównych również ma takie złącza PCIe, ale niektóre tanie platformy mogą nie mieć dodatkowych gniazd z czterema lub więcej liniami PCI Express. Dotyczy to zwłaszcza płyt głównych zbudowanych na niskopoziomowych chipsetach, których łączna liczba linii może zostać zmniejszona do sześciu. Dlatego przed zakupem Kingston HyperX Predator upewnij się, że system ma wolne gniazdo z co najmniej czterema liniami PCI Express.

OCZ Revodrive 350 idzie o krok dalej - wymaga już ośmiu linii PCI Express. Takie gniazda są zwykle realizowane nie przez chipset, ale przez procesor. Dlatego najlepszym miejscem do wykorzystania takiego dysku są platformy LGA 2011/2011-3, gdzie kontroler procesora PCI Express ma nadmierną liczbę linii, co pozwala na obsługę więcej niż jednej karty graficznej. W systemach z procesorami LGA 1155/1150/1151 OCZ Revodrive 350 będzie odpowiedni tylko w przypadku użycia grafiki zintegrowanej z procesorem. W przeciwnym razie, na korzyść dysku SSD, będziesz musiał usunąć połowę linii z GPU, przełączając go w tryb PCI Express x8.

Dyski Intel SSD 750 i Samsung SM951 są nieco podobne do OCZ Revodrive 350: są również preferowane do stosowania w gniazdach PCI Express zasilanych procesorem. Powodem nie jest jednak liczba pasów - wymagają one tylko czterech pasów PCI Express, ale generacja tego interfejsu: oba te dyski są w stanie wykorzystać zwiększoną przepustowość PCI Express 3.0. Jest jednak wyjątek: najnowsze chipsety Intel z setnej serii, przeznaczone dla procesorów z rodziny Skylake, otrzymały wsparcie dla PCI Express 3.0, więc w najnowszych płytach LGA 1151 można je zainstalować bez wyrzutów sumienia w chipsecie PCIe sloty, do których co najmniej cztery linie.

Problem kompatybilności ma drugą część. Do wszystkich ograniczeń związanych z przepustowością różnych odmian gniazd PCI Express, istnieją również ograniczenia związane z używanymi protokołami. Najbardziej bezproblemowe w tym sensie są dyski SSD działające przez AHCI. Dzięki temu, że emulują zachowanie konwencjonalnego kontrolera SATA, mogą współpracować z każdą, nawet starą platformą: są widoczne w BIOS-ie każdej płyty głównej, mogą być dyski startowe, a do ich działania w systemie operacyjnym nie są wymagane żadne dodatkowe sterowniki. Innymi słowy, Kingston HyperX Predator i Plextor M6e Black Edition to dwa najbardziej bezproblemowe dyski SSD PCIe.

A co z drugą parą dysków AHCI? Z nimi sytuacja jest nieco bardziej skomplikowana. OCZ Revodrive 350 działa w systemie operacyjnym poprzez własny sterownik, ale mimo to nie ma problemów z uruchomieniem tego dysku. Gorzej jest z Samsungiem SM951. Chociaż ten dysk SSD komunikuje się z systemem za pomocą starszego protokołu AHCI, nie ma on własnego systemu BIOS i dlatego musi zostać zainicjowany przez system BIOS płyty głównej. Niestety obsługa tego dysku SSD nie jest dostępna na wszystkich płytach głównych, zwłaszcza starszych. Dlatego z pełnym przekonaniem możemy mówić tylko o jego kompatybilności z płytami opartymi na najnowszych chipsetach Intela z dziewięćdziesiątej i setnej serii. W innych przypadkach może po prostu nie być widoczny dla płyty głównej. Oczywiście nie przeszkadza to w korzystaniu z Samsunga SM951 w systemie operacyjnym, w którym jest on łatwo inicjowany przez sterownik AHCI, ale w tym przypadku będziesz musiał zapomnieć o możliwości rozruchu z szybkiego dysku SSD.

Jednak największą niedogodność może spowodować Intel SSD 750, który działa poprzez nowy interfejs NVMe. Sterowniki wymagane do obsługi dysków SSD przy użyciu tego protokołu są dostępne tylko w najnowszych systemach operacyjnych. Tak więc w Linuksie obsługa NVMe pojawiła się w wersji jądra 3.1; „Natywny” sterownik NVMe jest dostępny w systemach Microsoft począwszy od Windows 8.1 i Windows Server 2012 R2; w systemie OS X w wersji 10.10.3 dodano kompatybilność z dyskami NVMe. Ponadto dyski NVMe SSD nie są obsługiwane przez wszystkie płyty główne. Aby takie dyski mogły być używane jako dyski rozruchowe, BIOS płyty głównej również musi mieć odpowiedni sterownik. Jednak producenci wbudowali niezbędną funkcjonalność tylko w najnowsze wersje oprogramowania sprzętowego wydane dla najnowszych modeli płyt głównych. Dlatego wsparcie dla bootowania systemu operacyjnego z dysków NVMe jest dostępne tylko na najnowocześniejszych płytach głównych dla entuzjastów opartych na chipsetach Intel Z97, Z170 i X99. Na starszych i tańszych platformach użytkownicy będą mogli używać dysków SSD NVMe jako drugich dysków tylko w ograniczonym zestawie systemów operacyjnych.

Pomimo tego, że staraliśmy się opisać wszystkie możliwe kombinacje platform i dysków PCI Express, główny wniosek z tego, co zostało powiedziane, jest taki, że kompatybilność dysków SSD PCIe z płytami głównymi nie jest tak oczywista, jak w przypadku dysków SATA SSD. Dlatego przed zakupem dowolnego szybkiego dysku SSD, który działa przez PCI Express, należy sprawdzić jego kompatybilność z konkretną płytą główną na stronie internetowej producenta.

Konfiguracja testów, narzędzia i metodyka testowania

Testy przeprowadzane są w systemie Microsoft Windows 8.1 Professional x64 z systemem operacyjnym Update, który poprawnie rozpoznaje i utrzymuje nowoczesne dyski SSD. Oznacza to, że w procesie przechodzenia testów, podobnie jak w normalnym codziennym użytkowaniu dysku SSD, wspierana i aktywnie zaangażowana jest komenda TRIM. Pomiar wydajności odbywa się na dyskach w stanie „używanym”, co osiąga się poprzez wstępne wypełnienie ich danymi. Przed każdym testem dyski są czyszczone i konserwowane za pomocą polecenia TRIM. Pomiędzy poszczególnymi testami utrzymywana jest 15-minutowa przerwa, przeznaczona na prawidłowy rozwój technologii zbierania śmieci. Wszystkie testy, o ile nie zaznaczono inaczej, wykorzystują losowe, nieskompresowalne dane.

Zastosowane aplikacje i testy:

Iometr 1.1.0

Pomiar szybkości sekwencyjnego odczytu i zapisu danych w blokach o wielkości 256 KB (najbardziej typowy rozmiar bloku dla operacji sekwencyjnych w zadaniach pulpitu). Szacunki prędkości są wykonywane w ciągu minuty, po czym obliczana jest średnia.
Pomiar losowej prędkości odczytu i zapisu w blokach 4 KB (ta wielkość bloku jest używana w zdecydowanej większości rzeczywistych operacji). Test jest uruchamiany dwukrotnie - bez kolejki żądań i z kolejką żądań o głębokości 4 poleceń (typowe dla aplikacji desktopowych, które aktywnie pracują z rozwidlonym systemem plików). Bloki danych są wyrównane ze stronami pamięci flash dysków. Prędkości są oceniane przez trzy minuty, po czym obliczana jest średnia.
Ustalenie zależności losowych prędkości odczytu i zapisu przy pracy dysku z 4-kilobajtowymi blokami od głębokości kolejki żądań (w zakresie od jednego do 32 poleceń). Bloki danych są wyrównane ze stronami pamięci flash dysków. Prędkości są oceniane przez trzy minuty, po czym obliczana jest średnia.
Ustalenie zależności losowych prędkości odczytu i zapisu, gdy dysk pracuje z blokami o różnych rozmiarach. Używane są bloki od 512 bajtów do 256 KB. Głębokość kolejki żądań podczas testu to 4 komendy. Bloki danych są wyrównane ze stronami pamięci flash dysków. Prędkości są oceniane przez trzy minuty, po czym obliczana jest średnia.
Mierzenie wydajności w mieszanym obciążeniu wielowątkowym i ustalanie jej zależności od stosunku między operacjami odczytu i zapisu. Test wykonywany jest dwukrotnie: dla sekwencyjnych odczytów i zapisów w blokach 128 KB, wykonywanych w dwóch niezależnych wątkach oraz dla operacji losowych z blokami 4 KB, które są wykonywane w czterech wątkach. W obu przypadkach stosunek odczytów i zapisów zmienia się w 20-procentowych przyrostach. Prędkości są oceniane przez trzy minuty, po czym obliczana jest średnia.
Badanie pogorszenia wydajności dysku SSD podczas przetwarzania ciągłego strumienia losowych operacji zapisu. Używane są bloki 4 KB i głębokość kolejki 32 poleceń. Bloki danych są wyrównane ze stronami pamięci flash dysków. Czas trwania testu to dwie godziny, co sekundę dokonywane są chwilowe pomiary prędkości. Na koniec testu sprawdzana jest dodatkowo zdolność dysku do przywrócenia jego wydajności do pierwotnych wartości ze względu na działanie technologii garbage collection oraz po przetworzeniu polecenia TRIM.

CrystalDiskMark 5.0.2
Syntetyczny test porównawczy, który zwraca typową wydajność dysku SSD mierzoną na obszarze dysku o pojemności 1 GB „na górze” systemu plików. Z całego zestawu parametrów, które można ocenić za pomocą tego narzędzia, zwracamy uwagę na szybkość sekwencyjnego odczytu i zapisu, a także wydajność losowych odczytów i zapisów w blokach 4-kilobajtowych bez kolejki żądań i z kolejką 32 instrukcje głębokie.
PC Mark 8 2,0
Test polegający na emulacji rzeczywistego obciążenia dysku, typowego dla różnych popularnych aplikacji. Na testowanym dysku tworzona jest pojedyncza partycja w systemie plików NTFS dla całego dostępnego woluminu, a test Secondary Storage jest przeprowadzany w PCMark 8. Jako wyniki testów brane są pod uwagę zarówno końcowa wydajność, jak i szybkość wykonania poszczególnych śladów testowych generowanych przez różne aplikacje.
Testy kopiowania plików
Ten test mierzy szybkość kopiowania katalogów z plikami różnych typów, a także szybkość archiwizacji i rozpakowywania plików wewnątrz dysku. Używany do kopiowania standardowe lekarstwo Windows - Narzędzie Robocopy, podczas archiwizacji i rozpakowywania - 7-zip archiwizator w wersji 9.22 beta. W testach biorą udział trzy zestawy plików: ISO - zestaw zawierający kilka obrazów dysków z dystrybucjami oprogramowania; Program – zestaw będący preinstalowanym pakietem oprogramowania; Praca to zestaw plików roboczych obejmujący dokumenty biurowe, zdjęcia i ilustracje, pliki pdf oraz treści multimedialne. Każdy z zestawów ma łączny rozmiar pliku 8 GB.

Jako platformę testową wykorzystano komputer z płytą główną ASUS Z97-Pro, procesor Core i5-4690K ze zintegrowanym rdzeniem graficznym Intel HD Graphics 4600 i 16 GB pamięci DDR3-2133 SDRAM. Dyski z interfejsem SATA są podłączane do kontrolera SATA 6 Gb/s wbudowanego w chipset płyty głównej i działają w trybie AHCI. Napędy PCI Express są instalowane w pierwszym gnieździe PCI Express 3.0 x16 o pełnej szybkości. Używane sterowniki to Intel Rapid Storage Technology (RST) 13.5.2.1000 i sterownik Intel Windows NVMe 1.2.0.1002.

Wielkość i szybkość przesyłania danych w benchmarkach są podawane w jednostkach binarnych (1 KB = 1024 bajty).

Oprócz pięciu głównych bohaterów tego testu - klienckich dysków SSD z interfejsem PCI Express, dodaliśmy do firmy najszybszy dysk SSD SATA - Samsung 850 PRO.

W rezultacie lista testowanych modeli przybrała następującą postać:

Intel SSD 750 400 GB (SSDPEDMW400G4, oprogramowanie układowe 8EV10135);
Kingston HyperX Predator PCIe 480 GB (SHPM2280P2H/480G, oprogramowanie układowe OC34L5TA);
OCZ RevoDrive 350 480 GB (RVD350-FHPX28-480G, oprogramowanie układowe 2.50);
Plextor M6e Black Edition 256 GB (PX-256M6e-BK, oprogramowanie układowe 1.05);
Samsung 850 Pro 256 GB (MZ-7KE256, oprogramowanie EXM01B6Q);
Samsung SM951 256 GB (MZHPV256HDGL-00000, oprogramowanie BXW2500Q).

Wydajność

Sekwencyjne operacje odczytu i zapisu






Nowa generacja dysków półprzewodnikowych, przeniesionych na magistralę PCI Express, powinna przede wszystkim wyróżniać się wysokimi prędkościami sekwencyjnego odczytu i zapisu. I dokładnie to widzimy na wykresie. Wszystkie dyski SSD PCIe przewyższają najlepszy dysk SSD SATA Samsung 850 PRO. Jednak nawet tak proste ładowanie, jak sekwencyjny odczyt i zapis, pokazuje ogromne różnice między dyskami SSD. różnych producentów. Ponadto wariant zastosowanej magistrali PCI Express nie ma decydującego znaczenia. Najlepszą wydajność daje tutaj dysk Samsung SM951 PCI Express 3.0 x4, a na drugim miejscu jest Kingston HyperX Predator, który działa przez PCI Express 2.0 x4. Progresywny dysk NVMe Intel SSD 750 znalazł się dopiero na trzecim miejscu.

Losowe odczyty






Jeśli mówimy o odczytywaniu losowym, jak widać na diagramach, dyski SSD PCIe nie różnią się szczególnie szybkością od tradycyjnych dysków SSD SATA. Co więcej, dotyczy to nie tylko dysków AHCI, ale także produktu współpracującego z kanałem NVMe. W rzeczywistości tylko trzech uczestników tego testu może wykazać lepszą wydajność niż Samsung 850 PRO w operacjach odczytu losowego w małych kolejkach żądań: Samsung SM951, Intel SSD 750 i Kingston HyperX Predator.

Pomimo tego, że operacje z głęboką kolejką żądań dla komputerów osobistych nie są typowe, nadal zobaczymy, jak wydajność rozważanego dysku SSD zależy od głębokości kolejki żądań podczas odczytu 4-kilobajtowych bloków.



Wykres wyraźnie pokazuje, w jaki sposób rozwiązania działające za pośrednictwem PCI Express 3.0 x4 mogą przewyższać wszystkie inne dyski SSD. Krzywe odpowiadające Samsungowi SM951 i Intel SSD 750 są znacznie wyższe niż krzywe innych dysków. Z powyższego diagramu można wysnuć jeszcze jeden wniosek: OCZ RevoDrive 350 to zawstydzająco powolny dysk półprzewodnikowy. W przypadku operacji odczytu losowego jest o połowę mniej niż w przypadku dysków SSD SATA, co wynika z architektury RAID i użycia przestarzałych kontrolerów SandForce drugiej generacji.

Oprócz tego sugerujemy przyjrzenie się, jak szybkość losowego odczytu zależy od rozmiaru bloku danych:



Tutaj obraz jest nieco inny. Wraz ze wzrostem rozmiaru bloku operacje zaczynają wyglądać jak sekwencyjne, więc rolę zaczyna odgrywać nie tylko architektura i moc kontrolera SSD, ale także przepustowość wykorzystywanej przez niego magistrali. W przypadku większych bloków, Samsung SM951, Intel SSD 750 i Kingston HyperX Predator zapewniają najlepszą wydajność.

Losowe zapisy






Gdzieś powinny się ujawnić zalety interfejsu NVMe, który zapewnia niskie opóźnienia, oraz kontrolera Intel SSD 750 o wysokim poziomie równoległości. Dodatkowo pojemny bufor DRAM dostępny w tym dysku SSD pozwala na zorganizowanie bardzo wydajnego buforowania danych. W rezultacie dysk Intel SSD 750 zapewnia niezrównaną wydajność zapisu losowego, nawet gdy kolejka żądań ma minimalną głębokość.

Aby dokładniej zobaczyć, co dzieje się z wydajnością zapisu losowego wraz ze wzrostem głębokości kolejki żądań, zobacz poniższy wykres, który przedstawia wydajność losowego zapisu 4K w porównaniu z głębokością kolejki żądań:



Wydajność Intel SSD 750 zwiększa się, aż głębokość kolejki osiągnie 8 instrukcji. Jest to typowe zachowanie konsumenckich dysków SSD. Tym, co wyróżnia firmę Intel, jest jednak to, że prędkość zapisu losowego jest znacznie większa niż w przypadku innych dysków SSD, w tym najszybszych modeli PCIe, takich jak Samsung SM951 lub Kingston HyperX Predator. Innymi słowy, przy losowym obciążeniu zapisu, Intel SSD 750 oferuje zasadniczo lepszą wydajność niż jakikolwiek inny dysk SSD. Innymi słowy, przejście do korzystania z interfejsu NVMe pozwala na podkręcenie prędkości losowego nagrywania. A to z pewnością ważna cecha, ale przede wszystkim dla dysków serwerowych. W rzeczywistości Intel SSD 750 jest tylko bliskim krewnym takich modeli jak Intel DC P3500, P3600 i P3700.

Poniższy wykres przedstawia wydajność zapisu losowego w zależności od rozmiaru bloku danych.



Wraz ze wzrostem rozmiarów bloków dysk Intel SSD 750 traci swoją niezaprzeczalną przewagę. Samsung SM951 i Kingston HyperX Predator zaczynają osiągać mniej więcej taką samą wydajność.


Ponieważ koszt dysków SSD nie jest już używany wyłącznie jako dyski systemowe i stają się zwykłymi dyskami roboczymi. W takich sytuacjach SSD otrzymuje nie tylko wyrafinowane obciążenie w postaci zapisów lub odczytów, ale także mieszane żądania, gdy operacje odczytu i zapisu są inicjowane przez różne aplikacje i muszą być przetwarzane jednocześnie. Jednak praca w pełnym dupleksie dla nowoczesnych kontrolerów SSD pozostaje poważnym problemem. Podczas mieszania odczytów i zapisów w tej samej kolejce prędkość większości dysków SSD klasy konsumenckiej wyraźnie spada. Z tego powodu powstało osobne badanie, w którym sprawdzamy, jak sprawują się dyski SSD, gdy konieczne jest przeplatanie operacji sekwencyjnych. Kolejna para wykresów przedstawia najbardziej typowy przypadek dla komputerów stacjonarnych, gdzie stosunek liczby odczytów i zapisów wynosi 4 do 1.






Przy sekwencyjnych obciążeniach mieszanych z dominującymi operacjami odczytu, co jest typowe dla zwykłych komputerów osobistych, Samsung SM951 i Kingston HyperX Predator zapewniają najlepszą wydajność. Losowe obciążenie mieszane okazuje się trudniejszym testem dla dysków SSD i pozostawia Samsung SM951 na czele, ale na drugie miejsce przesuwa się Intel SSD 750. W tym samym czasie generalnie okazują się Plextor M6e Black Edition, Kingston HyperX Predator i OCZ RevoDrive 350 być zauważalnie gorszy niż zwykły dysk SSD SATA.

Kolejne kilka wykresów daje bardziej szczegółowy obraz wydajności mieszanego obciążenia, pokazując szybkość dysku SSD w stosunku do stosunku odczytów i zapisów na nim.






Wszystko to dobrze potwierdzają powyższe wykresy. W mieszanym obciążeniu z operacjami sekwencyjnymi Samsung SM951 wykazuje najlepszą wydajność, co daje wrażenie ryby w wodzie w każdej pracy z danymi szeregowymi. W przypadku dowolnych operacji mieszanych sytuacja jest nieco inna. Oba dyski Samsunga, zarówno PCI Express 3.0 x4 SM951, jak i zwykłe SATA 850 PRO, radzą sobie w tym teście bardzo dobrze, przewyższając niemal wszystkie inne dyski SSD. W niektórych przypadkach może się im oprzeć tylko dysk Intel SSD 750, który dzięki systemowi poleceń NVMe jest doskonale zoptymalizowany do pracy z losowymi zapisami. A kiedy przepływ pracy w handlu mieszanym wzrośnie do 80 procent lub więcej rekordów, idzie do przodu.

Wyniki w CrystalDiskMark

CrystalDiskMark to popularna i prosta aplikacja testowa, która działa „na górze” systemu plików, co pozwala uzyskać wyniki, które są łatwo replikowane przez zwykłych użytkowników. Uzyskane w nim wartości wydajności powinny uzupełniać szczegółowe wykresy, które zbudowaliśmy na podstawie testów w IOMeter.












Te cztery wykresy są tylko wartością teoretyczną, pokazującą szczytową wydajność, która nie jest osiągalna w typowych zadaniach klienta. Głębokość kolejki żądań 32 poleceń nigdy nie występuje na komputerach osobistych, ale w specjalnych testach pozwala uzyskać maksymalną wydajność. I w tym przypadku wiodącą wydajność z dużym marginesem daje Intel SSD 750, który ma architekturę odziedziczoną po dyskach serwerowych, gdzie duża głębokość kolejki żądań jest całkiem w porządku.












Ale te cztery diagramy mają już znaczenie praktyczne - pokazują wydajność pod obciążeniem, co jest typowe dla komputerów osobistych. I tutaj Samsung SM951 daje najlepszą wydajność, która pozostaje w tyle za Intelem SSD 750 tylko przy losowych 4-kilobajtowych zapisach.

PCMark 8 2.0 Prawdziwe przypadki użycia

Pakiet testowy Futuremark PCMark 8 2.0 jest interesujący, ponieważ nie ma syntetycznego charakteru, a wręcz przeciwnie, opiera się na działaniu rzeczywistych aplikacji. Podczas jego przejścia odtwarzane są rzeczywiste scenariusze-ślady użycia dysku w typowych zadaniach pulpitu, a także mierzona jest szybkość ich wykonania. Obecna wersja tego testu symuluje obciążenie, które zostało zaczerpnięte z rzeczywistych aplikacji do gier Battlefield 3 i World of Warcraft oraz pakietów oprogramowania firm Abobe i Microsoft: After Effects, Illustrator, InDesign, Photoshop, Excel, PowerPoint i Word. Ostateczny wynik jest obliczany jako średnia prędkość, jaką wykazują napędy podczas przejazdu torów testowych.



Test PCMark 8 2.0, który ocenia wydajność systemów pamięci masowej w rzeczywistych zastosowaniach, wyraźnie mówi nam, że istnieją tylko dwa dyski PCIe, które są zasadniczo szybsze niż konwencjonalne modele SATA. Są to Samsung SM951 oraz Intel SSD 750, które wygrywają także w wielu innych testach. Inne dyski SSD PCIe, takie jak Plextor M6e Black Edition i Kingston HyperX Predator, są ponad półtora raza za liderami. Cóż, OCZ ReveDrive 350 demonstruje szczerze słabą wydajność. Jest ponad dwukrotnie wolniejszy od najlepszych dysków SSD PCIe i jest gorszy nawet od Samsunga 850 PRO, który działa przez interfejs SATA.

Integralny wynik PCMark 8 należy uzupełnić wskaźnikami wydajności wydawanymi przez dyski flash podczas przechodzenia poszczególnych ścieżek testowych, które symulują różne scenariusze rzeczywistego obciążenia. Faktem jest, że pod różnymi obciążeniami dyski flash często zachowują się nieco inaczej.






























Niezależnie od aplikacji, o której mówimy, w każdym razie jeden z dysków SSD z interfejsem PCI Express 3.0 x4 zapewnia najwyższą wydajność: albo Samsung SM951 albo Intel SSD 750. Co ciekawe, inne dyski SSD PCIe w niektórych przypadkach na ogół dają tylko prędkości na poziomie Dyski SSD SATA . W rzeczywistości przewagę tych samych Kingston HyperX Predator i Plextor M6e Black Edition nad Samsung 850 PRO widać tylko w Adobe Photoshop, Battlefield 3 i Microsoft Word.

Kopiowanie plików

Mając na uwadze, że dyski półprzewodnikowe są coraz częściej wprowadzane do komputerów osobistych, postanowiliśmy dodać do naszej metodologii pomiar wydajności podczas normalnych operacji na plikach - podczas kopiowania i pracy z archiwizatorami - wykonywanych "wewnątrz" dysku. Jest to typowa aktywność dysku, która występuje, gdy dysk SSD nie odgrywa roli dysk systemowy, ale zwykły dysk.









W testach kopiowania prym wiodą wciąż te same Samsung SM951 i Intel SSD 750. Jeśli jednak mówimy o dużych plikach sekwencyjnych, to Kingston HyperX Predator może z nimi konkurować. Muszę powiedzieć, że przy prostym kopiowaniu prawie wszystkie dyski SSD PCIe są szybsze niż Samsung 850 PRO. Jest tylko jeden wyjątek - Plextor M6e Black Edition. A OCZ RevoDrive 350, który w pozostałych testach konsekwentnie znajdował się w pozycji beznadziejnego słabszego, niespodziewanie omija nie tylko dysk SSD SATA, ale także najwolniejszy dysk SSD PCIe.

Druga grupa testów została przeprowadzona podczas archiwizacji i rozpakowywania katalogu z plikami roboczymi. Zasadnicza różnica w tym przypadku polega na tym, że połowa operacji wykonywana jest na plikach rozproszonych, a druga połowa na jednym dużym pliku archiwum.






Podobnie sytuacja wygląda w przypadku pracy z archiwami. Jedyną różnicą jest to, że tutaj Samsung SM951 udaje się śmiało oderwać od wszystkich konkurentów.

Jak działa TRIM i usuwanie śmieci w tle

Testując różne dyski SSD zawsze sprawdzamy, jak przetwarzają polecenie TRIM i czy są w stanie zbierać śmieci i przywracać swoją wydajność bez wsparcia ze strony systemu operacyjnego, czyli w sytuacji, gdy polecenie TRIM nie jest przesyłane. Takie testy przeprowadzono również i tym razem. Schemat tego testu jest standardowy: po stworzeniu długiego ciągłego obciążenia zapisu danych, co prowadzi do degradacji prędkości zapisu, wyłączamy obsługę TRIM i czekamy 15 minut, podczas których dysk SSD może próbować samodzielnie się zregenerować dzięki swojemu własny algorytm zbierania śmieci, ale bez pomocy z zewnątrz systemu operacyjnego i pomiaru prędkości. Następnie polecenie TRIM jest wymuszane do napędu - i po krótkiej przerwie prędkość jest ponownie mierzona.

Wyniki takich testów przedstawiono w poniższej tabeli, gdzie dla każdego testowanego modelu wskazano, czy odpowiada na TRIM, czyszcząc nieużywaną część pamięci flash i czy może przygotować czyste strony pamięci flash do przyszłych operacji, jeśli polecenie TRIM nie jest mu dane. W przypadku dysków, które okazały się w stanie wykonać usuwanie śmieci bez polecenia TRIM, wskazaliśmy również ilość pamięci flash, która została niezależnie zwolniona przez kontroler SSD do przyszłych operacji. W przypadku pracy dysku w środowisku bez obsługi TRIM jest to tylko ilość danych, które można zapisać na dysku z dużą prędkością początkową po okresie bezczynności.



Pomimo faktu, że wysokiej jakości obsługa polecenia TRIM stała się standardem branżowym, niektórzy producenci uważają za dopuszczalne sprzedawanie dysków, w których to polecenie nie jest w pełni przetworzone. Taki negatywny przykład pokazuje OCZ Revodrive 350. Formalnie rozumie TRIM, a nawet próbuje coś zrobić po otrzymaniu tego polecenia, ale nie ma potrzeby mówić o pełnym powrocie prędkości zapisu do pierwotnych wartości. I nie ma w tym nic dziwnego: Revodrive 350 bazuje na kontrolerach SandForce, które wyróżniają się nieodwracalną degradacją wydajności. W związku z tym jest również obecny w Revodrive 350.

Wszystkie inne dyski SSD PCIe działają z TRIM, podobnie jak ich odpowiedniki SATA. To znaczy, najlepiej: w systemach operacyjnych, które wysyłają to polecenie do dysków, wydajność pozostaje na niezmiennie wysokim poziomie.

Jednak chcemy więcej - wysokiej jakości dysk powinien być w stanie wykonać odśmiecanie bez wydawania polecenia TRIM. I tutaj wyróżnia się Plextor M6e Black Edition – dysk, który jest w stanie samodzielnie zwolnić znacznie więcej pamięci flash na nadchodzące operacje niż jego konkurenci. Chociaż oczywiście usuwanie śmieci offline działa w pewnym stopniu na wszystkich testowanych przez nas dyskach SSD, z wyjątkiem Samsunga SM951. Innymi słowy, przy normalnym użytkowaniu w dzisiejszych środowiskach wydajność Samsunga SM951 nie ulegnie pogorszeniu, ale w przypadkach, gdy TRIM nie jest obsługiwany, ten dysk SSD nie jest zalecany.

wnioski

Podsumowując, powinniśmy chyba zacząć od stwierdzenia, że ​​konsumenckie dyski SSD z interfejsem PCI Express nie są już egzotycznymi i nie jakimś eksperymentalnym produktem, ale całym segmentem rynku, w którym grają najszybsze dyski półprzewodnikowe dla entuzjastów. Oczywiście oznacza to również, że od dawna nie było problemów z dyskami SSD PCIe: obsługują wszystkie funkcje, które mają dyski SSD SATA, ale jednocześnie są bardziej wydajne i czasami mają kilka nowych ciekawych technologii.

Jednocześnie rynek klienckich dysków SSD PCIe nie jest tak zatłoczony i do tej pory do kohorty producentów takich dysków półprzewodnikowych mogły wejść tylko firmy o dużym potencjale inżynieryjnym. Wynika to z faktu, że niezależni twórcy masowo produkowanych kontrolerów SSD nie mają jeszcze designerskich rozwiązań, które pozwalają im rozpocząć produkcję dysków PCIe przy minimalnym nakładzie pracy inżynierskiej. Dlatego każdy z dysków SSD PCIe znajdujących się obecnie na półkach sklepowych jest wyróżniający się i niepowtarzalny na swój sposób.

W tym teście byliśmy w stanie zebrać pięć najpopularniejszych i najpopularniejszych dysków SSD PCIe przeznaczonych do użytku w komputerach osobistych. I zgodnie z wynikami znajomości z nimi staje się jasne, że kupujący, którzy chcą przejść na dyski półprzewodnikowe z progresywnym interfejsem, nie będą jeszcze musieli stawić czoła żadnej poważnej udręce wyboru. W większości przypadków wybór będzie jednoznaczny, testowane modele tak bardzo różnią się walorami konsumenckimi.

Ogólnie rzecz biorąc, najbardziej atrakcyjnym modelem SSD PCIe okazał się Samsung SM951. To genialne rozwiązanie PCI Express 3.0 x4 od jednego z liderów rynku, które nie tylko udowodniło, że jest w stanie zapewnić najwyższą wydajność w typowych ogólnych obciążeniach roboczych, ale jest również znacznie tańsze niż wszystkie inne dyski PCIe.

Jednak Samsung SM951 nadal nie jest doskonały. Po pierwsze nie zawiera żadnych specjalnych technologii mających na celu poprawę niezawodności, ale chcielibyśmy je mieć w produktach klasy premium. Po drugie, ten dysk SSD jest dość trudny do znalezienia w sprzedaży w Rosji - nie jest dostarczany do naszego kraju oficjalnymi kanałami. Na szczęście możemy zaproponować zwrócenie uwagi na dobrą alternatywę - Intel SSD 750. Ten dysk SSD działa również przez PCI Express 3.0 x4 i tylko nieznacznie ustępuje Samsungowi SM951. Jest to jednak bezpośredni krewny modeli serwerów, dlatego ma wysoką niezawodność i działa na protokole NVMe, co pozwala mu wykazać niezrównaną prędkość w operacjach losowego zapisu.

W zasadzie na tle Samsunga SM951 i Intel SSD 750 inne dyski SSD PCIe wyglądają raczej słabo. Jednak nadal zdarzają się sytuacje, w których będą musieli preferować inny model SSD PCIe. Faktem jest, że zaawansowane dyski Samsung i Intel są kompatybilne tylko z nowoczesnymi płytami głównymi zbudowanymi na chipsetach z serii dziewięćdziesiątej lub setnej Intela. W starszych systemach mogą działać tylko jako „drugi dysk”, a załadowanie z nich systemu operacyjnego będzie niemożliwe. Dlatego ani Samsung SM951 ani Intel SSD 750 nie nadają się do modernizacji platform poprzednich generacji, a wyboru trzeba będzie dokonać na dysku Kingston HyperX Predator, który z jednej strony zapewnia dobrą wydajność, a z drugiej gwarantuje brak problemów z kompatybilnością ze starszymi platformami.

W tym artykule wyjaśnimy powody sukcesu magistrali PCI i opiszemy wysokowydajną technologię, która ma ją zastąpić - magistralę PCI Express. Przyjrzymy się również historii rozwoju, poziomom sprzętowym i programowym magistrali PCI Express, cechom jej implementacji i wymienimy jej zalety.

Kiedy na początku lat 90. okazało się, że pod względem parametrów technicznych znacznie przewyższał wszystkie istniejące do tej pory opony, takie jak ISA, EISA, MCA i VL-bus. W tamtym czasie magistrala PCI (Peripheral Component Interconnect - interakcja elementów peryferyjnych), działająca z częstotliwością 33 MHz, była dobrze dopasowana do większości urządzeń peryferyjnych. Ale dzisiaj sytuacja zmieniła się pod wieloma względami. Przede wszystkim znacznie wzrosły taktowanie procesora i pamięci. Na przykład częstotliwość taktowania procesorów wzrosła z 33 MHz do kilku GHz, podczas gdy częstotliwość operacyjna PCI wzrosła do zaledwie 66 MHz. Pojawienie się technologii takich jak Gigabit Ethernet i IEEE 1394B groziło, że cała przepustowość magistrali PCI może zostać przeznaczona na obsługę jednego urządzenia opartego na tych technologiach.

Jednocześnie architektura PCI ma wiele zalet w stosunku do swoich poprzedników, więc całkowite jej przeredagowanie nie było racjonalne. Przede wszystkim nie zależy od typu procesora, obsługuje w pełni izolację buforów, technologię bus masteringu (przechwytywanie magistrali) oraz technologię PnP. Izolacja bufora oznacza, że ​​magistrala PCI działa niezależnie od wewnętrznej magistrali procesora, co umożliwia jej działanie niezależnie od szybkości i obciążenia magistrali systemowej. Dzięki technologii bus hijacking urządzenia peryferyjne są w stanie bezpośrednio kontrolować proces przesyłania danych w magistrali, zamiast czekać na pomoc ze strony procesora, co wpłynęłoby na wydajność systemu. Wreszcie, obsługa Plug and Play pozwala na automatyczną konfigurację i konfigurację korzystających z niej urządzeń i pozwala uniknąć manipulowania zworkami i przełącznikami, co w dużej mierze zrujnowało życie posiadaczom urządzeń ISA.

Mimo niewątpliwego sukcesu PCI, w chwili obecnej boryka się z poważnymi problemami. Wśród nich jest ograniczona przepustowość, brak funkcji przesyłania danych w czasie rzeczywistym oraz brak obsługi technologii sieciowych nowej generacji.

Charakterystyka porównawcza różnych standardów PCI

Należy zauważyć, że rzeczywista przepustowość może być mniejsza niż teoretyczna ze względu na zasadę protokołu i cechy topologii magistrali. Ponadto całkowita przepustowość jest rozdzielona na wszystkie podłączone do niej urządzenia, dlatego im więcej urządzeń znajduje się na magistrali, tym mniej przepustowości trafia do każdego z nich.

Takie standardowe ulepszenia jak PCI-X i AGP zostały zaprojektowane tak, aby wyeliminować jego główną wadę - niską częstotliwość taktowania. Jednak zwiększenie częstotliwości zegara w tych implementacjach spowodowało zmniejszenie efektywnej długości magistrali i liczby złączy.

Nowa generacja magistrali, PCI Express (lub w skrócie PCI-E), została po raz pierwszy wprowadzona w 2004 roku i została zaprojektowana w celu rozwiązania wszystkich problemów, z którymi borykał się jej poprzednik. Obecnie większość nowych komputerów jest wyposażona w magistralę PCI Express. Chociaż mają również standardowe gniazda PCI, czas, kiedy magistrala przejdzie do historii, nie jest odległy.

Architektura PCI Express

Architektura magistrali ma strukturę warstwową, jak pokazano na rysunku.

Magistrala obsługuje model adresowania PCI, co umożliwia współpracę z wszystkimi aktualnie istniejącymi sterownikami i aplikacjami. Ponadto magistrala PCI Express wykorzystuje standardowy mechanizm PnP zapewniany przez poprzedni standard.

Rozważ cel różnych poziomów organizacji PCI-E. Na poziomie oprogramowania magistrali generowane są żądania odczytu / zapisu, które są przesyłane na poziomie transportu za pomocą specjalnego protokołu pakietowego. Warstwa danych odpowiada za kodowanie z korekcją błędów i zapewnia integralność danych. Podstawowa warstwa sprzętowa składa się z podwójnego kanału simpleksowego składającego się z pary nadawczo-odbiorczej, zwanych łącznie linią. Łączna prędkość magistrali 2,5 Gb/s oznacza, że ​​przepustowość każdej linii PCI Express wynosi 250 Mb/s w każdą stronę. Jeśli weźmiemy pod uwagę koszty ogólne protokołu, to dla każdego urządzenia dostępne jest około 200 Mb/s. Ta przepustowość jest 2-4 razy większa niż ta dostępna dla urządzeń PCI. I, w przeciwieństwie do PCI, jeśli przepustowość jest rozdzielona między wszystkie urządzenia, to trafia do każdego urządzenia w całości.

Do tej pory istnieje kilka wersji standardu PCI Express, które różnią się przepustowością.

Przepustowość magistrali PCI Express x16 dla różnych wersji PCI-E, Gb/s:

  • 32/64
  • 64/128
  • 128/256

Formaty magistrali PCI-E

W tej chwili dostępne są różne opcje formatów PCI Express, w zależności od przeznaczenia platformy - komputer stacjonarny, laptop lub serwer. Serwery wymagające większej przepustowości mają więcej gniazd PCI-E, a te gniazda mają więcej łączy trunkingowych. Natomiast laptopy mogą mieć tylko jedną linię dla urządzeń o średniej szybkości.

Karta graficzna z interfejsem PCI Express x16.

Karty rozszerzeń PCI Express są bardzo podobne do kart PCI, ale złącza PCI-E są bardziej przyczepne, aby zapewnić, że karta nie wyślizgnie się z gniazda z powodu wibracji lub podczas transportu. Istnieje kilka współczynników kształtu gniazd PCI Express, których rozmiar zależy od liczby używanych linii. Na przykład magistrala z 16 liniami jest określana jako PCI Express x16. Chociaż łączna liczba linii może wynosić nawet 32, w praktyce większość płyt głównych jest obecnie wyposażona w magistralę PCI Express x16.

Karty o mniejszej obudowie można podłączać do gniazd o większej obudowie bez obniżania wydajności. Na przykład kartę PCI Express x1 można podłączyć do gniazda PCI Express x16. Podobnie jak w przypadku magistrali PCI, w razie potrzeby możesz użyć przedłużacza PCI Express do podłączenia urządzeń.

Pojawienie się złączy różnego typu na płycie głównej. Od góry do dołu: gniazdo PCI-X, gniazdo PCI Express x8, gniazdo PCI, gniazdo PCI Express x16.

Karta ekspresowa

Standard Express Card oferuje bardzo prosty sposób na dodanie sprzętu do systemu. Docelowym rynkiem modułów Express Card są laptopy i małe komputery PC. W przeciwieństwie do tradycyjnych biurkowych kart rozszerzeń, kartę Express można podłączyć do systemu w dowolnym momencie, gdy komputer jest uruchomiony.

Jedną z popularnych odmian karty Express Card jest karta PCI Express Mini, zaprojektowana jako zamiennik kart formatu Mini PCI. Karta utworzona w tym formacie obsługuje zarówno PCI Express, jak i USB 2.0. Wymiary karty PCI Express Mini to 30×56 mm. Karta PCI Express Mini może łączyć się z PCI Express x1.

Korzyści z PCI-E

Technologia PCI Express ma przewagę nad PCI w następujących pięciu obszarach:

  1. Lepsza wydajność. Dzięki tylko jednej linii przepustowość PCI Express jest dwukrotnie większa niż PCI. W tym przypadku przepustowość wzrasta proporcjonalnie do liczby linii w magistrali, których maksymalna liczba może osiągnąć 32. Dodatkową zaletą jest możliwość przesyłania informacji na magistrali w obu kierunkach jednocześnie.
  2. Uprość we/wy. PCI Express wykorzystuje magistrale takie jak AGP i PCI-X o mniej złożonej architekturze i stosunkowo prostej implementacji.
  3. Architektura warstwowa. PCI Express oferuje architekturę, która może dostosowywać się do nowych technologii bez konieczności znaczących aktualizacji oprogramowania.
  4. Technologie we/wy nowej generacji. PCI Express daje nowe możliwości otrzymywania danych za pomocą technologii jednoczesnego przesyłania danych, która zapewnia, że ​​informacje są odbierane w odpowiednim czasie.
  5. Łatwość użycia. PCI-E znacznie upraszcza modernizacje i rozbudowy systemu przez użytkownika. Dodatkowe formaty kart Express, takie jak ExpressCard, znacznie zwiększają możliwość dodawania szybkich urządzeń peryferyjnych do serwerów i laptopów.

Wniosek

PCI Express to technologia magistrali służąca do łączenia urządzeń peryferyjnych, zastępująca technologie takie jak ISA, AGP i PCI. Jego zastosowanie znacznie zwiększa wydajność komputera, a także możliwość rozbudowy i aktualizacji systemu przez użytkownika.

Zadawano mi to pytanie więcej niż raz, więc teraz postaram się odpowiedzieć na nie tak jasno i zwięźle, jak to możliwe, w tym celu podam zdjęcia gniazd rozszerzeń PCI Express i PCI na płycie głównej dla lepszego zrozumienia i oczywiście , wskażę główne różnice w charakterystyce, t .e. już niedługo dowiesz się, czym są te interfejsy i jak wyglądają.

Na początek odpowiedzmy pokrótce na to pytanie, czym jest ogólnie PCI Express i PCI.

Co to jest PCI Express i PCI?

PCI to komputerowa równoległa magistrala we/wy do podłączania urządzeń peryferyjnych do płyty głównej komputera. PCI służy do łączenia: kart graficznych, dźwiękowych, sieciowych, tunerów telewizyjnych i innych urządzeń. Interfejs PCI jest przestarzały, więc prawdopodobnie nie będziesz w stanie znaleźć na przykład nowoczesnej karty graficznej, która łączy się przez PCI.

PCI Express(PCIe lub PCI-E) to szeregowa magistrala we/wy komputera służąca do podłączania urządzeń peryferyjnych do płyty głównej komputera. Tych. to już wykorzystuje dwukierunkowe połączenie szeregowe, które może mieć kilka linii (x1, x2, x4, x8, x12, x16 i x32) im więcej takich linii, tym wyższa przepustowość magistrali PCI-E. Interfejs PCI Express służy do podłączania urządzeń takich jak karty graficzne, karty dźwiękowe, karty sieciowe, dyski SSD i inne.

Istnieje kilka wersji interfejsu PCI-E: 1,0, 2,0 i 3,0 (wkrótce ukaże się wersja 4.0). Ten interfejs jest zwykle oznaczony, na przykład tak PCI-E 3.0x16, co oznacza wersję PCI Express 3.0 z 16 liniami.

Jeśli mówimy o tym, czy na przykład karta graficzna, która ma interfejs PCI-E 3.0 na płycie głównej, która obsługuje tylko PCI-E 2.0 lub 1.0, to twórcy twierdzą, że wszystko będzie działać, ale oczywiście pamiętaj że przepustowość będzie ograniczona przez możliwości płyty głównej. Dlatego w tym przypadku przepłacaj za kartę graficzną więcej Nowa wersja Myślę, że PCI Express nie jest tego wart ( choćby na przyszłość, czyli Planujesz zakup nowej płyty głównej z PCI-E 3.0). Również odwrotnie, powiedzmy, że twoja płyta główna obsługuje wersję PCI Express 3.0, a karta graficzna obsługuje wersję 1.0, wtedy ta konfiguracja również powinna działać, ale tylko z możliwościami PCI-E 1.0, tj. nie ma tu żadnych ograniczeń, ponieważ karta wideo w tym przypadku będzie działać na granicy swoich możliwości.

Różnice między PCI Express i PCI

Główną różnicą w charakterystyce jest oczywiście przepustowość, dla PCI Express jest znacznie wyższa, na przykład dla PCI przy 66 MHz przepustowość wynosi 266 Mb / s, a dla PCI-E 3.0 (x16) 32 Gb/s.

Zewnętrznie interfejsy są również inne, więc nie będziesz w stanie podłączyć na przykład karty graficznej PCI Express do gniazda rozszerzeń PCI. Różnią się też interfejsy PCI Express z różną liczbą pasów, teraz pokażę to wszystko na zdjęciach.

Gniazda rozszerzeń PCI Express i PCI na płytach głównych

Gniazda PCI i AGP

Gniazda PCI-E x1, PCI-E x16 i PCI

  1. Witam! Proszę wyjaśnić różnicę w przepustowości między PCI Express 3.0 x16 i PCI Express 2.0 x16. W sprzedaży są jeszcze płyty główne z interfejsem PCI Express 2.0 x16. jestem z Jeśli zainstaluję nową kartę graficzną interfejsu, stracę wydajność wideoPCI Express 3.0 do komputera z płytą główną, gdzie jest tylko złączePCIe 2.0? Myślę, że stracę, bo w sumieszybkość transmisji PCI Express 2.0 ma - 16 GB/s, a łącznieSzybkość przesyłania danych PCI Express 3.0 jest dwukrotnie szybsza — 32 GB/s.
  2. Witam! Mam komputer z mocnym, ale nie nowym procesorem Intel Core i7 2700K i płytą główną, która ma gniazdo PCI Express 2.0. Powiedz mi, jeśli kupię nową kartę graficzną interfejsu PCI Express 3.0, to ta karta graficzna będzie działać dwa razy wolniej, niż gdybym miała płytę główną ze złączem PCI Express 3.0? Czy to oznacza, że ​​muszę zmienić komputer?
  3. Proszę odpowiedzieć na to pytanie. Moja płyta główna ma dwa złącza: PCI Express 3.0 i PCI Express 2.0, ale w złączu Nowa karta graficzna PCI Express 3.0 PCI Express 3.0 nie wspina się, przeszkadza grzejnik mostka południowego. Jeśli zainstaluję kartę graficznąPCI-E 3.0 na gniazdo PCI-E 2.0, czy moja karta graficzna będzie działać gorzej, niż gdyby była zainstalowana w gnieździe PCI Express 3.0?
  4. Witam, chcę kupić używaną płytę główną od znajomego za dwa tysiące rubli. Trzy lata temu kupił go za 7000 rubli, ale myli mnie fakt, że ma gniazdo na kartę graficzną interfejsu PCI-E 2.0 i mam kartę graficznąPCI-E 3.0. Czy moja karta graficzna na tej płycie głównej będzie działać z pełną wydajnością, czy nie?

Różnica przepustowości między interfejsem PCI Express 3.0 x16 i PCI Express 2.0 x16

Cześć przyjaciele! Do tej pory w sprzedaży można znaleźć płyty główne z gniazdem do instalacji kart graficznych PCI Express 2.0 x16 oraz PCI Express 3.0x16. To samo można powiedzieć o kartach graficznych, są karty graficzne z interfejsem PCI-E 3.0, a także PCI-E 2.0. Jeśli spojrzysz na oficjalne specyfikacje interfejsów PCI Express 3.0 x16 i PCI Express 2.0 x16, przekonasz się, że całkowita szybkość przesyłania danych PCI Express 2.0 wynosi- 16 GB/s, oraz PCI Express 3.0 jest dwa razy większy -32 GB/s. Nie będę się zagłębiał w specyfikę tych interfejsów i tylko powiem, że jest tak duża różnica wSzybkość przesyłania danych jest widoczna tylko w teorii, ale w praktyce jest bardzo mała.Jeśli czytasz artykuły na ten temat w Internecie, todojdziesz do wniosku, że nowoczesne karty graficzne PCI Express 3.0 działają z tą samą prędkością w gniazdach PCI Express 3.0 x16 i PCI Express 2.0 x16, oraz różnica w przepustowościmiędzy PCI-E 3.0 x16 a PCI-E 2.0 x16 to tylko 1-2% spadku wydajności karty graficznej. Oznacza to, że nie ma znaczenia, w którym slocie zainstalujesz kartę graficzną, w PCI-E 3.0 lub PCI-E 2.0 wszystko będzie działać tak samo.

Niestety, wszystkie te artykuły zostały napisane w 2013 i 2014 roku i nie było wtedy takich gier jak Far Cry Primal, Battlefield 1 i innych nowości, które pojawiły się w 2016 roku. Wydany również w 2016 r. rodzina procesorów graficznych NVIDIA z serii 10, takich jak karty graficzne GeForce GTX 1050 i GeForce GTX 1050 Ti, a nawet GTX 1060. Moje eksperymenty z nowymi grami i nowymi kartami graficznymi pokazały, że przewaga interfejsu PCI-E 3.0 nadPCI-E 2.0 to już nie 1-2%, aleśrednio 6-7%. Co ciekawe, jeśli karta graficzna jest niższej klasy niż GeForce GTX 1050 , to odsetek jest mniejszy (2-3%) , a jeśli odwrotnie, to więcej - 9-13%.

Więc w moim eksperymencie użyłem karty graficznej Interfejs GeForce GTX 1050 PCI-E 3.0 i płyta główna z gniazdami PCI Express 3.0 x16 i PCI Express 2.0 x16.

H ustawienia grafiki w grach są zawsze maksymalne.

  1. Gra FAR CRY PRIMAL. Interfejs PCI-E 3.0 wykazał przewagę nad PCI-E 2.0 jako zawsze wyższa o 4-5 klatek, czyli w przybliżeniu 4 % %.
  2. Gra Battlefield 1. Różnica między PCI-E 3.0 a PCI-E 2.0 była 8-10 klatek , co stanowi około 9% w procentach.
  3. Powstanie Tomb Raider. Zaleta PCI-E 3.0 średnie 9- 10 kl./s lub 9%.
  4. Wiedźmin. Przewaga PCI-E 3.0 wyniosła 3%.
  5. Grand Theft Auto V. Przewaga PCI-E 3.0 to 5 kl/s czyli 5%.

Oznacza to, że nadal istnieje różnica w przepustowości między interfejsami PCI-E 3.0 x16 i PCI-E 2.0 x16 i nie jest na korzyść PCI-E 2.0. Dlatego nie kupiłbym w tej chwili płyty głównej z jednym gniazdem PCI-E 2.0.

Mój przyjaciel kupił używaną płytę główną za trzy tysiące rubli. Tak, jak już się nasypał i kosztował około dziesięciu tysięcy rubli, ma dużo złączy SATA III i USB 3.0, także 8 gniazd na pamięć RAM, obsługuje technologię RAID itp., ale jest zbudowany na przestarzałym chipsecie i gnieździe karty graficznej PCI Express 2.0! Moim zdaniem wolałbym to kupić. Czemu?

Może się zdarzyć, że za rok lub dwa najnowsze karty graficzne będą działać tylko w złączu PCI Express 3.0x16 , a na Twojej płycie głównej pojawi się moralnie przestarzałe i nieużywane już przez producentów złącze PCI Express 2.0 x16 . Kupujesz nową kartę graficzną, która odmawia pracy w starym gnieździe. Osobiście spotkałem się już wiele razy, że karta graficzna PCI-E 3.0 nie działał na macie. płytka przyłączeniowa PCI-E 2.0 i Nawet aktualizacja BIOS-u płyty głównej nie pomogła.Zajmowałem się również kartami wideoPCI-E 2.0 x16, który odmówił pracy na starszych płytach głównych z interfejsem PCI-E 1.0x16, chociaż wszędzie piszą o kompatybilności wstecznej.Przypadki, w których karta graficzna PCI Express 3.0 x16 nie uruchamiała się na płytach głównych zPCI Express 1.0 x16, jeszcze więcej.

Cóż, nie zapomnij o wyglądzie interfejsu w tym roku PCI Express 4.0. W takim przypadku PCI Express 3.0 będzie przestarzały.

mob_info