Wszystko o tuningu samochodów

Płyta systemowa - co to jest? Urządzenie i główne cechy. Cechy płyty głównej Co to jest płyta główna w komputerze

Nie możesz obejść się bez płyty głównej. Ponadto dalsze aktualizacje zależą od rodzaju płyty głównej komputera. Jeśli pozwala na to płyta główna, z czasem pamięć RAM można rozszerzyć i zainstalować kartę graficzną o wyższej wydajności. Ale każda aktualizacja jest możliwa, jeśli nadal są niewykorzystane gniazda i złącza.

Przede wszystkim porozmawiajmy o takiej płycie głównej, która pozwala na rozbudowę systemu we wszystkich kierunkach. Jest to płyta pełnowymiarowa i jest zalecana przez firmę Asus. Istnieje wystarczająca liczba slotów i elementów, dzięki czemu dalsze ulepszenie daje jasne perspektywy. Należy również zauważyć dobre okablowanie. Wszystkie elementy są dobrze zlutowane, a producent gwarantuje, że płytka wytrzyma bardzo długo.

Jak zwykle spójrzmy na wszystko punkt po punkcie.

Na rysunku znajdują się zapisy i zajmijmy się nimi. Oto główne elementy płyty głównej:

  • złącze lub gniazdo do podłączenia procesora;
  • gniazda do podłączenia karty graficznej, czasami w zaawansowanych modelach płyt można zainstalować jednocześnie dwie karty wideo;
  • Do tych gniazd podłączona jest pamięć RAM, w tym przypadku standard DDR2;
  • układ płyty głównej i jej „mostek północny”;
  • teraz most południowy;
  • system, który schładza fazy do zasilania procesora;
  • znane złącza USB, są ich cztery, które są wyświetlane na tylnej ścianie jednostki systemowej;
  • wbudowana karta dźwiękowa i jej wyjścia;
  • sterownik interfejsu napędu FDC;
  • to są wyjścia, są też cztery, do których podłącza się nowy standard dyski twarde;
  • te trzy gniazda PCI można rozszerzyć, aby podłączyć dodatkowe karty, na przykład karty przechwytywania wideo, tuner TV i inne;
  • bateria BIOS;
  • gniazdo w 12 V czteropinowe dla procesora;
  • zasilacz jest podłączony do tego 24-pinowego złącza, stąd napięcie jest dostarczane do płyty głównej;
  • tutaj podłącza się przestarzałe dyski twarde IDE dla DVD, CD-ROM;
  • BIOS lub mikrochip.

Teraz jeszcze więcej

Komentarze mogą być wymagane w przypadku elementów takich jak układ chłodzenia. Wyraźnie widać, że na rysunku jest w samym środku i pochodzą z niego miedziane rurki. Chip chipsetu po stronie północnej jest zamknięty przez centralny grzejnik. Oczywiście odbija się echem w mikroczipie po południowej stronie. Ponadto tutaj jest kontroler magistrali systemowej, RAM, wbudowane wideo.

Zapewne jasne jest, że mówiąc o mostach północnym i południowym, mamy na myśli przede wszystkim ich lokalizację. Mostek północny znajduje się odpowiednio nad gniazdami PCI, a mostek południowy poniżej. Radiator częściowo zakrywa mostek południowy, który zawiera kontroler karty sieciowej wbudowany w komputer, magistrale USB, wbudowany dźwięk i tak dalej.

Chipy, które są łączone w celu wykonania dowolnego zadania, nazywane są chipsetami. W języku angielskim to chipset. Mostek północny i południowy to dwa duże obwody na płycie głównej komputera.
Zadaniem „North Bridge” jest połączenie wysokowydajnych urządzeń i procesora. Te urządzenia znajdują się na płycie głównej: karta wideo i pamięć.

Natomiast „most południowy” zarządza dyskami twardymi, kartami rozszerzeń, kartami sieciowymi i dźwiękowymi, USB i tak dalej. Oznacza to, że odpowiada za urządzenia peryferyjne.

Poniżej znajduje się przykład tego, jak wyglądają dwa chipsety „Północ” i „Południe”. Mostek północny jest zawsze większy, a mostek południowy zawsze mniejszy. Te chipsety pochodzą od VIA.


To, co oznaczyliśmy cyfrą „6” na powyższym rysunku, to grzejniki. Znajdują się na płycie głównej, a ich zadaniem jest chłodzenie faz zasilających procesor. Tranzystory i kondensatory znajdują się pod tymi radiatorami. Nie pozwalają na spadki napięcia zasilania przy nagłym wzroście obciążenia. Jeśli płyta główna ma te urządzenia, nie wahaj się, jest wysokiej jakości. W przypadku płyty głównej niskiej jakości procesor może stać się niestabilny. Już nie jest dobrze.

Fazy ​​lub obwody mocy składają się z przetworników napięcia, rezystorów, tranzystorów, dławików, sterowników PWM, kondensatorów i innych. Wszystko to znajduje się w podstawie elementu zasilacza procesora.

Co robią konwertery napięcia?

Kontrolują napięcie i dostarczają je tak, jak jest to konieczne do normalnej pracy każdego elementu. Wiemy już, że napięcie wynosi 12 woltów. Jednak nie wszystkie elementy potrzebują właśnie takiego napięcia. Dlatego należy go obniżyć, co robi konwerter, a następnie przekierowuje do mikroukładu lub elementu, który tego potrzebuje.

Ogólnie rzecz biorąc, jest to ważny temat i konieczne jest bardziej szczegółowe omówienie tego tematu. Istnieje moduł regulacji napięcia lub moduł regulacji napięcia. Nazywa się w skrócie VRM. Obniża również napięcie. Ale częściej robi to inny moduł VRD lub Regulator napięcia w dół. Informacje są wystarczające dla przeciętnego użytkownika. Nie ma potrzeby zagłębiać się. Po prostu poznaj skróty i zrozum, do czego służą.

Konwerter napięcia zwykle ma również tranzystory MOSFET w swoich obwodach. Pole z różnych pól elektrycznych. Są kontrolowane przez te pola. Co oznacza MOP? W języku angielskim brzmi jak tranzystor polowy metal-tlenek-półprzewodnik, a po rosyjsku metal-tlenek-półprzewodnik. Możesz również znaleźć skróconą angielską wersję MOSFET lub mosfet.

Główna kontrola i zarządzanie fazami zasilania koncentruje się na płycie głównej kontrolera PWM. Skrót oznacza modulację szerokości impulsu, co tłumaczy się jako „modulacja szerokości impulsu” lub PWM. Mówiąc najprościej, są to kontrolery PWM.

W jaki sposób kontroler PWM rozumie, jakie napięcie należy przyłożyć do procesora? Sygnalizuje mu to ośmiobitowy znak. W różnych momentach napięcie powinno być różne i dlatego taki sygnał jest konieczny.

Teraz wszystkie komputery są wielofazowe. Mają do 24 faz. Ale zwykle można zobaczyć zarówno komputery czterofazowe, jak i ośmiofazowe. Ale jednofazowe jest teraz rzadkością. Ale kiedyś byli jedynymi w służbie człowiekowi. Teraz są uznawane za nieskuteczne.

Ale czym jest regulator jednofazowy?

Ma limit maksymalnego napięcia, które przechodzi przez dławiki, mosfety, kondensatory lub przez główne elementy, które go tworzą. Napięcie nie może przekraczać trzydziestu amperów. Dla porównania, nowoczesne procesory są w stanie przyjąć prąd o natężeniu do stu i więcej amperów. Jeśli jedna faza zostanie zainstalowana w nowoczesnym komputerze, to przy takich „wymaganiach” po prostu się stopi. Aby usunąć ograniczenia i zaczął produkować wielofazową moc procesora.

Jeżeli regulator jest wielofazowy, to obciążenie energii elektrycznej może być rozłożone lub skierowane na poszczególne fazy, ich ilość może być bardzo różna. Ale jednocześnie wszystkie te fazy razem dadzą dokładnie taką moc, jaka jest potrzebna. Załóżmy, że zainstalowano sześć faz. Każda faza przechodzi trzydzieści amperów. To jest limit, pamiętasz? Tak więc każda faza dostarcza trzydzieści amperów iw sumie będzie to sto osiemdziesiąt amperów.

Jest jedno zastrzeżenie, które należy wziąć pod uwagę przy zakupie komputera. Jeśli jego procesor to generacja Intel Core i7, zużywa energię w granicach 130 watów. Tak więc wystarczy sześć faz, aby go zasilić. Jeśli powiedziano ci, że jest więcej faz, nie wierz im, kłamią. Tak, same elementy są teraz tworzone z polimerowej bryły. Wcześniej podstawa elementu składała się z kondensatorów elektrolitycznych. Teraz kondensatory polimerowe mogą działać przez co najmniej pięćdziesiąt tysięcy godzin. Nawet dławiki są inne, mają ferrytowe serce. Dlatego przechodzą prąd nie trzydzieści, jak kiedyś, ale całe czterdzieści amperów. A jeśli moc jest sześciofazowa, procesor otrzyma 240 amperów. Jednocześnie zużyje ponad dwieście watów energii.

Nowoczesne płyty główne wyposażone są w takie urządzenie, które zapewnia dynamiczne przełączanie pomiędzy obwodami zasilania. Nie wszystko jest tak trudne, jak mogłoby się wydawać na pierwszy rzut oka. Tyle, że komputer zwykle nie zużywa tak dużo energii, ale czasami staje się to konieczne i wtedy już podczas pracy fazy są łączone jedna po drugiej. Jeśli obciążenie spada, fazy są wyłączane. W zasadzie, jak już powiedzieliśmy, do działania procesora wystarczy jedna faza. Ale to jest dla słabego procesora. Czasami ten tryb jest używany w procesie testowania.

Od faz zasilania do płyty głównej

Wróćmy do tematu rozmowy. Nieco niżej znajduje się zdjęcie, na którym schematycznie pokazane są wszystkie główne złącza i elementy na płycie głównej:


Procesor jest odpowiedzialny. Wszystko zaczyna się od niego. Oznacza to, że dosłownie do każdego węzła z centralnego procesora dane są przesyłane przez centralną magistralę.

Poniższy obrazek również ilustruje tę sytuację:

Co to za opona, o której tak często myślimy?

To jest magistrala procesora płyty i nazywa się Front Side Bus. Krótko mówiąc, FSB. Za pośrednictwem tej magistrali mostek północny płyty głównej i procesor wchodzą w interakcję. Można to porównać z autostradą, z jaką prędkością dane pędzi z taką prędkością, a cały system działa. Praca autobusu, jego częstotliwość mierzona jest w megahercach, a im wyższa liczba, tym bardziej aktywna jest praca.

Kiedyś już szczegółowo opisaliśmy, czym jest częstotliwość i jak jest mierzona. Możesz przeczytać o tym osobno w osobnym artykule.

Procesor ma przywilej, tylko że łączy się bezpośrednio z tą magistralą. Wszystkie inne elementy przesyłają i odbierają dane za pośrednictwem ustanowionych kontrolerów. Wszystkie są wbudowane w układ „mostu północnego”.

Czasami kontrolery są zintegrowane z rdzeniem procesora, a teraz dzieje się to coraz częściej.

Co daje przeniesienie kontrolerów? Kiedy kontroler pamięci RAM został przeniesiony z chipsetu do rdzenia procesora, opóźnienia przesyłania danych zostały znacznie zmniejszone. W zasadzie te opóźnienia są nieuniknione, gdy są przesyłane przez magistralę systemową. Ale tutaj są minimalne.

Jako przykład warto przytoczyć procesor Intel LGA1156. FSB już praktycznie nie istnieje. Czemu? Tyle, że wszystkie niezbędne kontrolery są przenoszone z płyty głównej na procesor.

Pomysł AMD okazał się owocny. Teraz ta technologia ma swoją nazwę i nazywa się „Hyper Transport”. Początkowo było to wyłącznie dla komputerów, a teraz routery sieciowe Cisco są wyposażone w tę zasadę. Jak już wiesz, te urządzenia są bardzo wydajne.

Stopniowo rdzeń procesora staje się bardziej złożony. Przesyłane są tam prawie wszystkie urządzenia, w tym wideo. Początkowo jego miejsce znajdowało się na płycie głównej na moście północnym. Miejsce wydawało się idealne. Ale kiedy został przeniesiony do rdzenia procesora, okazał się znacznie wydajniejszy.

Dlaczego ten proces w ogóle stał się możliwy?

Faktem jest, że technologia procesu produkcji procesorów kurczy się. Spójrzmy na przykład na procesory z serii. Tam stosowana jest technologia procesu przy 22 nanometrach. I dzięki temu możliwe stało się umieszczenie tranzystorów w ilości 1,4 miliarda. I to wszystko w tym samym obszarze.

Aby było jaśniej, nanometr nazywa się jedną miliardową metra. W związku z tym 22 nanometry to rozdzielczość liniowa sprzętu litograficznego. Jest częścią jednostki centralnej.

Jak widać, ewolucja jest na drodze redukcji wszystkiego, tranzystorów i innych elementów. I staje się możliwe umieszczenie ich na jednym krysztale. A liczba tranzystorów stale rośnie, to naturalne. Dzięki temu na ich podstawie można stworzyć dowolny element i osadzić jego graficzny rdzeń procesora. Teraz programiści właśnie to robią. Stale redukują proces techniczny.

Proces ten doprowadził do tego, że prawie wszystkie kontrolery i interfejsy znajdowały się pod jednym dachem w centralnym procesorze. W wielu nowoczesnych płytach głównych mostek południowy okazał się zupełnie zbędny. I po prostu z tego zrezygnowali. Ale niektórzy z nich weszli na most północny. Klasyczną wersję płyty głównej, którą opisaliśmy wcześniej, można teraz zobaczyć rzadko.

Jeśli płyta główna jest tania, możesz zobaczyć następujący obrazek: jest skrócona, ale wszystkie elementy nadal nie są na niej umieszczone. Dopiero teraz znajdują się na boku i na dole płytki tekstolitowej. Oczywiste jest, że nie ma potrzeby mówić o złączach czy wyjściach. Gdzie możemy umieścić elementy!

Prowadziłem bardzo aktywne życie: grałem w tenisa, piłkę nożną, grałem w szachy i strzelałem, brałem udział w wyścigach samochodowych, uwodziłem piękne dziewczyny... Ale wszystko się skończyło, gdy wypaliła się płyta główna w komputerze!

Z pewnością każdy użytkownik, nawet najbardziej beznadziejny „czajnik”, kiedykolwiek słyszał to zdanie - „płyta główna”. I nie jest to zaskakujące - w końcu niezawodność i wydajność komputera w dużej mierze zależy od jakości i możliwości tego elementu komputera, dlatego ten termin komputerowy jest bardzo popularny.

Każdy komputer to złożone urządzenie, które zawiera wiele węzłów i mikroukładów. Wydawać by się mogło, że umieszczenie ich wszystkich tak, aby nie przeszkadzały sobie nawzajem i skutecznie współdziałały, jest dla projektantów zadaniem niewykonalnym. Ale znaleziono rozwiązanie tego problemu - okazuje się, że wystarczy umieścić wszystkie najważniejsze mikroukłady, w tym procesor, na jednej dużej płycie.

Tak więc płyta główna komputera (w języku angielskim jest napisana jako płyta główna, w przyszłości będziemy również używać tego terminu), zwana także płytą systemową, jest głównym urządzeniem komputera osobistego. Jego głównym celem jest połączenie i zjednoczenie wszystkich węzłów i komponentów komputera w jedną całość. Wiele węzłów jest fizycznie umieszczonych na płycie głównej, podczas gdy inne są do niej podłączone za pomocą kabli.

Główne funkcje płyty głównej:

  1. Rozmieszczenie głównych komponentów i systemów PC
  2. Integracja głównych komponentów i systemów PC
  3. Zasilanie głównych komponentów i systemów komputera PC

Jakie urządzenia znajdują się na płycie głównej:

  • Gniazdo procesora
  • Chipset
  • Gniazda rozszerzeń
  • Złącza pamięci
  • Złącza do podłączenia napędów
  • Porty
  • Układ BIOS-u
  • Karta sieciowa (opcjonalna)
  • Karta graficzna (opcjonalnie)
  • Karta dźwiękowa (opcjonalnie)

Płyta główna jest mocowana za pomocą specjalnych śrub w obudowie komputera. W praktyce wymiana płyty głównej oznacza w rzeczywistości aktualizację całego komputera.

Należy zauważyć, że współczynnik kształtu, to znaczy znormalizowany rozmiar płyty głównej, jest powiązany ze współczynnikiem kształtu jednostki systemowej, a płyta główna o określonym współczynniku kształtu prawdopodobnie nie pasuje do jednostki systemowej zaprojektowanej dla innej formy czynnik.

Być może najbardziej znaną cechą płyty głównej jest umieszczenie gniazd na karty rozszerzeń, których wyjścia znajdują się z tyłu jednostki systemowej. Z pewnością nie wszyscy użytkownicy byli zaangażowani w wymianę samej płyty głównej w obudowie komputera, a także modernizację procesora, ale najprawdopodobniej znają proces wymiany lub dodawania kart rozszerzeń do gniazd na płycie głównej. Nawiasem mówiąc, płyta główna nazywana jest płytą główną właśnie w odniesieniu do płyt-córek, czyli płyt znajdujących się w gniazdach rozszerzeń.

Znaczna liczba nowoczesnych płyt zawiera wiele wbudowanych elementów, które wcześniej mogły działać tylko przez gniazda rozszerzeń - jest to karta graficzna, karta sieciowa, karta dźwiękowa itp. Zwykle są to urządzenia klasy podstawowej, bardzo tanie i przeznaczone dla niewymagających użytkowników. Jednak te urządzenia mają tendencję do zwiększania kosztów całego systemu i zwalniają gniazda rozszerzeń na coś ważniejszego. Ponadto obecność tych urządzeń nie uniemożliwia użytkownikowi aktualizacji systemu, na przykład zapalony gracz zawsze może zainstalować najnowszą wersję spiętrzonego trójwymiarowego akceleratora zamiast zwykłej karty graficznej. W takim przypadku urządzenie zainstalowane w gnieździe rozszerzeń będzie zawsze miało pierwszeństwo przed wbudowanym.

Kilka słów należy powiedzieć o technologii wytwarzania płyt głównych. Materiałem na płyty główne jest zwykle włókno szklane, na które nakładane są przewodzące metalowe prowadnice. W desce może być kilka takich warstw tekstolitu. Wierzch deski pokryty jest lakierem dielektrycznym, najczęściej zielonym.

Historia płyt głównych

Pomysł jednej planszy na integrację wszystkich elementów zdobył dla siebie miejsce nie od razu. We wczesnych latach komputerów PC rozpowszechniono tak zwane płyty montażowe, czyli płyty, które nie zawierały wszystkich funkcjonalnych bloków komputera. Bloki te zostały umieszczone na różnych płytach, które zostały umieszczone w gniazdach rozszerzeń płyty montażowej - mogą to być chipsety, kontrolery napędów, porty, a nawet sam procesor. Ale potem z takiego schematu trzeba było zrezygnować (pierwszy przykład podał IBM) ze względu na tańsze zintegrowane płyty główne nowoczesnego typu, w których mieściły się wszystkie komponenty, a także z powodu trudności, jakie pojawiły się podczas modernizacji komputerów na płyty montażowe.

Jednak w pierwszych płytach głównych nowoczesnego typu zarówno procesor, jak i pamięć były nieusuwalne. Następnie pojawiły się złącza pamięci i gniazda procesorów. To ulepszenie znacznie ułatwiło uaktualnianie komputera.

Po pierwsze, format AT został rozłożony na płyty główne, począwszy od płyt głównych komputerów z architekturą AT. Ale płyty tego rozmiaru były bardzo duże, dlatego częściej używano formatu Baby-AT.

Czynniki kształtu nowoczesnych płyt głównych

AT został zastąpiony przez format ATX w połowie lat 90-tych. Obecnie format AT i jego pochodne typy płyt głównych praktycznie nie są używane w nowoczesnych komputerach PC.

Korzyści, jakie format ATX przyniósł w porównaniu z AT:

  • Wygodniejsze wymiary, więcej wolnego miejsca w etui.
  • Zmniejszono odległość między płytą a napędami, co zmniejszyło długość kabli.
  • Gniazdo procesora znajduje się bliżej wentylatora jednostki systemowej, co poprawia chłodzenie procesora.
  • Umiejętność zarządzania mocą komputera.
  • Moc procesora z jednostki systemowej bez konwertera napięcia.
  • Umieszczenie portów na samej płycie głównej.
  • Wygodniejsze rozmieszczenie złączy dla kart rozszerzeń.
  • Obecność pojedynczego kontaktu dla kabla zasilającego

Współczynnik kształtu ATX i jego pochodne mATX (micro ATX), mini-ATX i serwer EATX (rozszerzony ATX) są nadal najczęstsze w większości dzisiejszych komputerów.

Istnieje również nowszy format płyty głównej BTX, opracowany w 2003 roku, ale wciąż nie był w stanie obalić ATX z piedestału.

Wymiary porównawcze płyt niektórych formatów (DxS, mm):

  • AT-351×305
  • Dziecko AT - 330 x 216
  • EATX - 330×305
  • ATX-305×244
  • miniATX - 284×208
  • mATX — 244×244
  • BTX — 325 x 267

Konfiguracja płyty głównej

Z reguły dla nowoczesnej płyty głównej dostępne są nie tylko funkcje takie jak modernizacja poszczególnych elementów, takich jak procesor, pamięć i karty rozszerzeń, ale także ustawianie głównych parametrów płyty głównej i procesora, takich jak częstotliwość systemu magistrala i procesor, mnożnik częstotliwości itp.

Należy pamiętać, że ustawienie parametrów płyty głównej to bardzo delikatna sprawa, a jeśli nie znasz wszystkich zawiłości operacji, którą zamierzasz wykonać, pamiętaj, że nieprawidłowe ustawienie może spowodować niesprawność całej system lub jego poszczególne elementy.

Płyta główna jest zwykle konfigurowana za pomocą interfejsu programu BIOS Setup. Ponadto wiele parametrów można skonfigurować za pomocą specjalnych programów w systemie Windows.

Wniosek

W tym artykule zapoznałeś się z koncepcją płyty głównej (systemowej), dowiedziałeś się, do jakich celów jest przeznaczona, jakie komponenty są na niej umieszczone, jak są skonfigurowane główne parametry płyty głównej, jaki jest współczynnik kształtu płyty głównej, zapoznał się z historią rozwoju płyt głównych w komputerach osobistych, a także różne rodzaje płyty główne.

Płyta główna lub płyta systemowa to wielowarstwowa płytka drukowana, która jest podstawą komputera, która określa jego architekturę, wydajność oraz komunikuje się między wszystkimi podłączonymi do niej elementami i koordynuje ich pracę.

1. Wstęp 2. PCB 3. Chipset 3.1. Główne funkcje mostu północnego 3.1.1. Interfejsy komunikacyjne procesora 3.1.2. Interfejsy komunikacyjne z kartą graficzną 3.1.3. Interfejsy komunikacyjne z mostem południowym 3.2. Główne funkcje Mostu Południowego 3.2.1. Interfejsy komunikacyjne z kartami rozszerzeń 3.2.2. Interfejsy komunikacyjne z urządzeniami peryferyjnymi i innymi komputerami 3.2.3. Interfejsy magistrali mostka południowego z dyskami twardymi 3.2.4. Interfejsy komunikacyjne z wolnymi komponentami płyty głównej 4. BIOS (podstawowy system wejścia-wyjścia) 5. Inne elementy płyty głównej

1. Wstęp.

Płyta główna jest jedną z niezbędne elementy Komputer, który decyduje o jego wyglądzie i zapewnia interakcję wszystkich urządzeń podłączonych do płyty głównej.

Płyta główna zawiera wszystkie główne elementy komputera, takie jak:

Zestaw logiki systemowej lub chipset jest głównym elementem płyty głównej, który określa rodzaj procesora, typ pamięci RAM, typ magistrali systemowej;

Gniazdo do instalacji procesora. Określa, jaki typ procesorów można podłączyć do płyty głównej. Procesory mogą korzystać z różnych interfejsów magistrali systemowej (na przykład FSB, DMI, QPI itp.), niektóre procesory mogą mieć zintegrowany system graficzny lub kontroler pamięci, liczba „nóg” może się różnić i tak dalej. W związku z tym dla każdego typu procesora konieczne jest użycie własnego gniazda do instalacji. Często producenci procesorów i płyt głównych nadużywają tego, dążąc do dodatkowych korzyści i tworzą nowe procesory, które nie są kompatybilne z istniejącymi typami gniazd, nawet jeśli można było tego uniknąć. W rezultacie podczas aktualizacji komputera konieczna jest zmiana nie tylko procesora, ale także płyty głównej, ze wszystkimi wynikającymi z tego konsekwencjami.

- procesor- główne urządzenie komputerowe, które wykonuje operacje matematyczne, logiczne i operacje sterujące dla wszystkich innych elementów komputera;

Kontroler RAM (pamięć o dostępie swobodnym). Wcześniej kontroler pamięci RAM był wbudowany w chipset, ale teraz większość procesorów ma zintegrowany kontroler pamięci RAM, co pozwala na zwiększenie ogólnej wydajności i odciążenie chipsetu.

RAM to zestaw chipów do tymczasowego przechowywania danych. W nowoczesnych płytach głównych możliwe jest jednoczesne podłączenie kilku układów pamięci RAM, zwykle czterech lub więcej.

PROM (BIOS) zawierający oprogramowanie, które testuje główne komponenty komputera i konfiguruje płytę główną. I pamięć CMOS, która przechowuje ustawienia BIOS. Często instalowanych jest kilka układów pamięci CMOS, aby umożliwić szybkie odzyskanie komputera w sytuacji awaryjnej, na przykład po nieudanej próbie przetaktowania;

Akumulator lub bateria zasilająca pamięć CMOS;

Kontrolery kanałów I/O: USB, COM, LPT, ATA, SATA, SCSI, FireWire, Ethernet itp. Obsługiwane kanały I/O zależą od typu używanej płyty głównej. W razie potrzeby można zainstalować dodatkowe kontrolery I/O w postaci kart rozszerzeń;

Oscylator kwarcowy generujący sygnały, dzięki którym synchronizowane jest działanie wszystkich elementów komputera;

Timery;

Kontroler przerwań. Sygnały przerwań z różnych urządzeń nie trafiają bezpośrednio do procesora, ale do kontrolera przerwań, który ustawia sygnał przerwania z odpowiednim priorytetem na stan aktywny;

Złącza do instalacji kart rozszerzeń: karty graficzne, karty dźwiękowe itp.;

Regulatory napięcia, które przekształcają napięcie źródła w napięcie wymagane do zasilania komponentów zainstalowanych na płycie głównej;

Narzędzia monitorujące, które mierzą prędkość obrotową wentylatorów, temperaturę głównych elementów komputera, napięcie zasilania itp.;

Karta dźwiękowa. Prawie wszystkie płyty główne zawierają wbudowane karty dźwiękowe, które pozwalają uzyskać przyzwoitą jakość dźwięku. W razie potrzeby możesz zainstalować dodatkową dyskretną kartę dźwiękową, która zapewnia lepszy dźwięk, ale w większości przypadków nie jest to wymagane;

Wbudowany głośnik. Używany głównie do diagnozowania stanu systemu. Tak więc na podstawie czasu trwania i sekwencji sygnałów dźwiękowych po włączeniu komputera można określić większość awarii sprzętu;

Opony są przewodnikami do wymiany sygnałów między podzespołami komputera.

Urządzenie i przeznaczenie płyty głównej

Płyta główna lub płyta systemowa to wielowarstwowa płytka drukowana, która jest podstawą komputera, która określa jego architekturę, wydajność oraz komunikuje się między wszystkimi podłączonymi do niej elementami i koordynuje ich pracę.

1. Wstęp.

Płyta główna to jeden z najważniejszych elementów komputera, który decyduje o jego wyglądzie i zapewnia współdziałanie wszystkich urządzeń podłączonych do płyty głównej.

Płyta główna zawiera wszystkie główne elementy komputera, takie jak:

Zestaw logiki systemowej lub chipset jest głównym elementem płyty głównej, który określa rodzaj procesora, typ pamięci RAM, typ magistrali systemowej;

Gniazdo do instalacji procesora. Określa, jaki typ procesorów można podłączyć do płyty głównej. Procesory mogą korzystać z różnych interfejsów magistrali systemowej (na przykład FSB, DMI, QPI itp.), niektóre procesory mogą mieć zintegrowany system graficzny lub kontroler pamięci, liczba „nóg” może się różnić i tak dalej. W związku z tym dla każdego typu procesora konieczne jest użycie własnego gniazda do instalacji. Często producenci procesorów i płyt głównych nadużywają tego, dążąc do dodatkowych korzyści i tworzą nowe procesory, które nie są kompatybilne z istniejącymi typami gniazd, nawet jeśli można było tego uniknąć. W rezultacie podczas aktualizacji komputera konieczna jest zmiana nie tylko procesora, ale także płyty głównej, ze wszystkimi wynikającymi z tego konsekwencjami.

- jednostka centralna - główne urządzenie komputerowe, które wykonuje operacje matematyczne, logiczne oraz operacje sterujące dla wszystkich pozostałych elementów komputera;

Kontroler RAM (pamięć o dostępie swobodnym). Wcześniej kontroler pamięci RAM był wbudowany w chipset, ale teraz większość procesorów ma zintegrowany kontroler pamięci RAM, co pozwala na zwiększenie ogólnej wydajności i odciążenie chipsetu.

RAM to zestaw chipów do tymczasowego przechowywania danych. W nowoczesnych płytach głównych możliwe jest jednoczesne podłączenie kilku układów pamięci RAM, zwykle czterech lub więcej.

PROM (BIOS) zawierający oprogramowanie, które testuje główne komponenty komputera i konfiguruje płytę główną. I pamięć CMOS, która przechowuje ustawienia BIOS. Często instalowanych jest kilka układów pamięci CMOS, aby umożliwić szybkie odzyskanie komputera w sytuacji awaryjnej, na przykład po nieudanej próbie przetaktowania;

Akumulator lub bateria zasilająca pamięć CMOS;

Kontrolery kanałów I/O: USB, COM, LPT, ATA, SATA, SCSI, FireWire, Ethernet itp. Obsługiwane kanały I/O zależą od typu używanej płyty głównej. W razie potrzeby można zainstalować dodatkowe kontrolery I/O w postaci kart rozszerzeń;

Oscylator kwarcowy generujący sygnały, dzięki którym synchronizowane jest działanie wszystkich elementów komputera;

Timery;

Kontroler przerwań. Sygnały przerwań z różnych urządzeń nie trafiają bezpośrednio do procesora, ale do kontrolera przerwań, który ustawia sygnał przerwania z odpowiednim priorytetem na stan aktywny;

Złącza do instalacji kart rozszerzeń: karty graficzne, karty dźwiękowe itp.;

Regulatory napięcia, które przekształcają napięcie źródła w napięcie wymagane do zasilania komponentów zainstalowanych na płycie głównej;

Narzędzia monitorujące, które mierzą prędkość obrotową wentylatorów, temperaturę głównych elementów komputera, napięcie zasilania itp.;

Karta dźwiękowa. Prawie wszystkie płyty główne zawierają wbudowane karty dźwiękowe, które pozwalają uzyskać przyzwoitą jakość dźwięku. W razie potrzeby możesz zainstalować dodatkową dyskretną kartę dźwiękową, która zapewnia lepszy dźwięk, ale w większości przypadków nie jest to wymagane;

Wbudowany głośnik. Używany głównie do diagnozowania stanu systemu. Tak więc na podstawie czasu trwania i sekwencji sygnałów dźwiękowych po włączeniu komputera można określić większość awarii sprzętu;

Opony są przewodnikami do wymiany sygnałów między podzespołami komputera.

2. PCB.

Podstawą płyty głównej jest płytka drukowana. Na płytce drukowanej znajdują się linie sygnałowe, zwane często ścieżkami sygnałowymi, łączące ze sobą wszystkie elementy płyty głównej. Jeśli ścieżki sygnału są zbyt blisko siebie, sygnały nadawane wzdłuż nich będą się wzajemnie zakłócać. Im dłuższa ścieżka i im wyższa szybkość transmisji danych na niej, tym bardziej zakłóca sąsiednie ścieżki i tym bardziej jest podatna na takie zakłócenia.

W efekcie mogą wystąpić awarie w działaniu nawet ultra niezawodnych i drogich podzespołów komputerowych. Dlatego głównym zadaniem przy produkcji płytki drukowanej jest takie rozmieszczenie ścieżek sygnałowych, aby zminimalizować wpływ zakłóceń na przesyłane sygnały. Aby to zrobić, płytka drukowana jest wielowarstwowa, mnożąc użyteczny obszar płytki drukowanej i odległość między ścieżkami.

Zazwyczaj nowoczesne płyty główne mają sześć warstw: trzy warstwy sygnałowe, warstwę uziemiającą i dwie płyty mocy.

Jednak liczba warstw mocy i warstw sygnałowych może się różnić w zależności od cech płyt głównych.

Układ i długość torów jest niezwykle ważna dla normalnej pracy wszystkich elementów komputera, dlatego przy wyborze płyty głównej należy zwrócić szczególną uwagę na jakość płytki drukowanej i układ torów. Jest to szczególnie ważne, jeśli zamierzasz używać podzespołów komputera o niestandardowych ustawieniach i parametrach pracy. Na przykład podkręć procesor lub pamięć.

Płytka drukowana zawiera wszystkie elementy płyty głównej i złącza do podłączenia kart rozszerzeń i urządzeń peryferyjnych. Poniższy rysunek przedstawia schemat blokowy lokalizacji komponentów na płytce drukowanej.

Przyjrzyjmy się bliżej wszystkim komponentom płyty głównej i zacznijmy od głównego komponentu - chipsetu.

3. Chipset.

Chipset lub zestaw logiki systemowej to główny chipset płyty głównej, który zapewnia połączone działanie centralnego procesora, pamięci RAM, karty graficznej, kontrolerów peryferyjnych i innych komponentów podłączonych do płyty głównej. To on określa główne parametry płyty głównej: typ obsługiwanego procesora, głośność, kanał i rodzaj pamięci RAM, częstotliwość i typ magistrali systemowej i magistrali pamięci, zestawy kontrolerów urządzeń peryferyjnych i tak dalej.

Z reguły nowoczesne chipsety budowane są w oparciu o dwa komponenty, które są oddzielnymi chipsetami połączonymi ze sobą szybką magistralą.

Jednak ostatnio pojawiła się tendencja do łączenia mostków północnego i południowego w jeden element, ponieważ kontroler pamięci jest coraz częściej wbudowany bezpośrednio w procesor, odciążając w ten sposób mostek północny i coraz szybsze kanały komunikacji z urządzeniami peryferyjnymi i kartami rozszerzeń pojawić się. Rozwija się też technologia wytwarzania układów scalonych, dzięki czemu mogą być mniejsze, tańsze i zużywające mniej energii.

Połączenie mostka północnego i mostka południowego w jeden chipset poprawia wydajność systemu, skracając czas interakcji z urządzeniami peryferyjnymi i komponentami wewnętrznymi wcześniej podłączonymi do mostka południowego, ale znacznie komplikuje konstrukcję chipsetu, utrudnia aktualizację i nieznacznie zwiększa koszt płyty głównej .

Ale jak dotąd większość płyt głównych jest wykonywana na bazie chipsetu podzielonego na dwa komponenty. Elementy te nazywane są mostem północnym i południowym.

Nazwy Północ i Południe są historyczne. Wskazują one położenie komponentów chipsetu względem magistrali PCI: północ jest wyżej, a południe niżej. Dlaczego most? Taką nazwę nadano chipsetom ze względu na pełnione przez nie funkcje: służą do łączenia różnych magistral i interfejsów.

Powody podziału chipsetu na dwie części są następujące:

1. Różnice w szybkich trybach pracy.

Mostek północny obsługuje najszybsze i najbardziej ruchliwe komponenty. Te komponenty obejmują kartę graficzną i pamięć. Jednak obecnie większość procesorów ma zintegrowany kontroler pamięci, a wiele z nich ma również zintegrowany system graficzny, chociaż jest znacznie gorszy od dyskretnych kart graficznych, ale nadal jest często używany w budżetowych komputerach osobistych, laptopach i netbookach. Dlatego każdego roku zmniejsza się obciążenie mostka północnego, co zmniejsza potrzebę dzielenia chipsetu na dwie części.

2. Częstsze aktualizowanie standardów peryferii niż głównych części komputera.

Standardy magistral komunikacyjnych z pamięcią, kartą graficzną i procesorem zmieniają się znacznie rzadziej niż standardy komunikacji z kartami rozszerzeń i peryferiami. Pozwala to, w przypadku zmiany interfejsu komunikacyjnego z urządzeniami peryferyjnymi lub opracowania nowego kanału komunikacyjnego, nie wymieniać całego chipsetu, a jedynie mostka południowego. Ponadto mostek północny współpracuje z szybszymi urządzeniami i jest bardziej złożony niż mostek południowy, ponieważ ogólna wydajność systemu w dużej mierze zależy od jego działania. Więc zmiana jest kosztowna i ciężka praca. Ale mimo to istnieje tendencja do łączenia mostków północnego i południowego w jeden układ scalony.

3.1. Główne funkcje Mostu Północnego.

Mostek północny, jak sama nazwa wskazuje, pełni funkcje sterowania i kierowania przepływem danych z 4 magistral:

  1. Komunikacja magistrali z procesorem lub magistralą systemową.
  2. Magistrale komunikacji z pamięcią.
  3. Magistrale komunikacyjne z kartą graficzną.
  4. Autobusy komunikacyjne z mostem południowym.

Zgodnie z pełnionymi funkcjami urządzono most północny. Składa się z interfejsu magistrali systemowej, interfejsu magistrali komunikacyjnej mostka południowego, kontrolera pamięci, interfejsu magistrali komunikacyjnej karty graficznej.

W tej chwili większość procesorów ma zintegrowany kontroler pamięci, więc funkcję kontrolera pamięci można uznać za przestarzałą dla mostka północnego. Biorąc pod uwagę, że istnieje wiele rodzajów pamięci RAM, wyróżnimy osobny artykuł opisujący pamięć i technologię jej interakcji z procesorem.

W komputerach budżetowych system graficzny jest czasami wbudowany w mostek północny. Jednak w tej chwili bardziej powszechną praktyką jest instalowanie system graficzny bezpośrednio do procesora, więc ta funkcja mostka północnego również zostanie uznana za przestarzałą.

Dlatego głównym zadaniem chipsetu jest kompetentna i szybka dystrybucja wszystkich żądań z procesora, karty graficznej i mostka południowego, ustawianie priorytetów i tworzenie, w razie potrzeby, kolejki. Co więcej, powinien być tak zrównoważony, aby maksymalnie skrócić czas przestoju podczas próby uzyskania dostępu do komponentów komputera do określonych zasobów.

Rozważmy bardziej szczegółowo istniejące interfejsy komunikacyjne z procesorem, kartą graficzną i mostkiem południowym.

3.1.1. Interfejsy komunikacyjne z procesorem.

W tej chwili istnieją następujące interfejsy do połączenia procesora z mostkiem północnym: FSB, DMI, HyperTransport, QPI.

FSB (magistrala przednia)- magistrala systemowa używana do łączenia procesora z mostkiem północnym w latach 90. i 2000. FSB została opracowana przez firmę Intel i po raz pierwszy została zastosowana w komputerach opartych na procesorach Pentium.

Częstotliwość magistrali FSB jest jednym z najważniejszych parametrów komputera iw dużej mierze decyduje o wydajności całego systemu. Zwykle jest to kilka razy mniej niż częstotliwość procesora.

Częstotliwości, przy których pracuje procesor centralny i magistrala systemowa, mają wspólną częstotliwość odniesienia i są obliczane w uproszczonej formie jako Vp = Vo*k, gdzie Vp jest częstotliwością roboczą procesora, Vo jest częstotliwością odniesienia, k jest mnożnikiem. Zazwyczaj w nowoczesnych systemach częstotliwość odniesienia jest równa częstotliwości FSB.

Większość płyt głównych umożliwia ręczne zwiększenie częstotliwości lub mnożnika magistrali systemowej poprzez zmianę ustawień w systemie BIOS. W starszych płytach głównych te ustawienia były zmieniane przez zamianę zworek. Zwiększenie częstotliwości lub mnożnika magistrali systemowej zwiększa wydajność komputera. Jednak w większości nowoczesnych procesorów średniej kategorii cenowej mnożnik jest zablokowany, a jedynym sposobem na poprawę wydajności systemu obliczeniowego jest zwiększenie częstotliwości magistrali systemowej.

Częstotliwość FSB stopniowo wzrastała z 50 MHz dla procesorów Intel Pentium i AMD K5 we wczesnych latach 90. do 400 MHz dla procesorów klasy Xeon i Core 2 pod koniec 2000 roku. Jednocześnie przepustowość wzrosła z 400 Mb/s do 12800 Mb/s.

FSB była używana w procesorach Atom, Celeron, Pentium, Core 2 i Xeon do 2008 roku. Obecnie ta magistrala została zastąpiona przez magistrale systemowe DMI, QPI i Hyper Transport.

HyperTransport– uniwersalna, szybka magistrala point-to-point o niskim opóźnieniu, służąca do łączenia procesora z mostkiem północnym. Magistrala HyperTransport jest dwukierunkowa, co oznacza, że ​​do wymiany w każdym kierunku jest przydzielona własna linia komunikacyjna. Ponadto działa w technologii DDR (Double Data Rate), przesyłając dane zarówno z przodu, jak i po upadku impulsu zegara.

Technologia została opracowana przez konsorcjum HyperTransport Technology kierowane przez AMD. Warto zauważyć, że standard HyperTransport jest otwarty, co pozwala różnym firmom na wykorzystanie go w swoich urządzeniach.

Pierwsza wersja HyperTransport została wprowadzona w 2001 roku i pozwalała na wymianę z prędkością 800 MTP/s (800 Mega Transakcji na sekundę lub 838860800 wymian na sekundę) z maksymalną przepustowością 12,8 GB/s. Ale już w 2004 roku została wydana nowa modyfikacja szyny HyperTransport (v.2.0), zapewniająca 1,4 GTr/s przy maksymalnej przepustowości 22,4 GB/s, czyli prawie 14 razy większej niż możliwości szyny FSB.

18 sierpnia 2008 została wydana modyfikacja 3.1, działająca z prędkością 3,2 GTr/s, z przepustowością 51,6 GB/s. Jest to obecnie najszybsza wersja magistrali HyperTransport.

Technologia HyperTransport jest bardzo elastyczna i pozwala zmieniać zarówno częstotliwość magistrali, jak i jej głębię bitową. Pozwala to wykorzystać go nie tylko do połączenia procesora z mostkiem północnym i pamięcią RAM, ale także w wolnych urządzeniach. Jednocześnie możliwość zmniejszenia głębi bitowej i częstotliwości prowadzi do oszczędności energii.

Minimalna częstotliwość zegara magistrali to 200 MHz, natomiast dane będą przesyłane z prędkością 400 MTP/s, dzięki technologii DDR, a minimalna głębia bitowa to 2 bity. Przy minimalnych ustawieniach maksymalna przepustowość wyniesie 100 MB/s. Wszystkie poniższe obsługiwane częstotliwości i głębie bitowe są wielokrotnościami minimalnej częstotliwości zegara i maksymalnej głębokości bitowej — 3,2 GTr/s i głębi bitowej — 32 bity, dla wersji HyperTransport v 3.1.

DMI (bezpośredni interfejs mediów)– magistrala szeregowa punkt-punkt służąca do połączenia procesora z chipsetem oraz do połączenia mostka południowego chipsetu z mostkiem północnym. Opracowany przez firmę Intel w 2004 roku.

Do komunikacji z chipsetem zwykle wykorzystywane są 4 kanały DMI, zapewniające maksymalną przepustowość do 10 GB/s dla wersji DMI 1.0 i 20 GB/s dla wersji DMI 2.0, wprowadzonej w 2011 roku. W budżetowych systemach mobilnych można zastosować magistralę z dwoma kanałami DMI, co zmniejsza przepustowość o połowę w porównaniu z opcją 4-kanałową.

Często w procesorach komunikujących się z chipsetem za pośrednictwem magistrali DMI, wraz z kontrolerem pamięci, wbudowany jest kontroler magistrali PCI Express, który zapewnia interakcję z kartą graficzną. W tym przypadku mostek północny nie jest potrzebny, a chipset pełni jedynie funkcje interakcji z kartami rozszerzeń i urządzeniami peryferyjnymi. Dzięki tej architekturze płyty głównej szybki kanał nie jest wymagany do interakcji z procesorem, a przepustowość magistrali DMI jest więcej niż wystarczająca.

QPI (szybkie połączenie międzysystemowe)– magistrala szeregowa punkt-punkt służąca do komunikacji procesorów między sobą oraz z chipsetem. Wprowadzony przez firmę Intel w 2008 roku i używany w procesorach HiEnd, takich jak Xeon, Itanium i Core i7.

Magistrala QPI jest dwukierunkowa, to znaczy w każdym kierunku istnieje osobny kanał wymiany, z których każda składa się z 20 linii komunikacyjnych. Dlatego każdy kanał ma 20 bitów, z czego tylko 16 bitów na ładunek. Magistrala QPI działa z prędkością 4,8 i 6,4 GTr/s, a maksymalna przepustowość to odpowiednio 19,2 i 25,6 GB/s.

Krótko omówiliśmy główne interfejsy komunikacyjne między procesorem a chipsetem. Następnie rozważ interfejsy komunikacyjne mostka północnego z kartą graficzną.

3.1.2. Interfejsy komunikacyjne z kartą graficzną.

Początkowo do komunikacji z GPU wykorzystywana była wspólna magistrala ICA, VLB, a następnie PCI, ale bardzo szybko przepustowość tych magistral przestała wystarczać do pracy z grafiką, zwłaszcza po rozpowszechnieniu grafiki trójwymiarowej, co wymaga ogromna moc obliczeniowa i duża przepustowość magistrali dla tekstur transmisji i parametrów obrazu.

Zwykłe magistrale zostały zastąpione wyspecjalizowaną magistralą AGP, zoptymalizowaną do pracy z kontrolerem graficznym.

AGP (port przyspieszonej grafiki)- wyspecjalizowana magistrala 32-bitowa do pracy z kartą graficzną, opracowana w 1997 roku przez firmę Intel.

Magistrala AGP działała z częstotliwością zegara 66 MHz i obsługiwała dwa tryby pracy: z pamięcią DMA (Direct Memory Access) i pamięcią DME (Direct in Memory Execute).

W trybie DMA pamięć wbudowana w kartę wideo była uważana za pamięć główną, a w trybie DME pamięć karty graficznej, która wraz z pamięcią główną znajdowała się w jednej przestrzeni adresowej, a karta wideo mogła dostęp zarówno do pamięci wbudowanej, jak i do pamięci głównej komputera.

Obecność trybu DME umożliwiła zmniejszenie ilości pamięci wbudowanej w kartę wideo, a tym samym obniżenie jej kosztów. Tryb pamięci DME nazywa się teksturowaniem AGP.

Jednak bardzo szybko przepustowość magistrali AGP przestała wystarczać do pracy w trybie DME, a producenci zaczęli zwiększać ilość pamięci wbudowanej. Wkrótce przyrost pamięci wbudowanej przestał pomagać, a przepustowość magistrali AGP zaczęła kategorycznie zanikać.

Pierwsza wersja magistrali AGP, AGP 1x, działała z częstotliwością zegara 66 MHz i miała maksymalną szybkość przesyłania danych 266 MB / s, co nie wystarczało do pełnoprawnej pracy w trybie DME i nie przekraczało prędkości swojego poprzednika, magistrala PCI (PCI 2.1 - 266 MB/s). Dlatego prawie natychmiast magistrala została sfinalizowana, a z przodu wprowadzono tryb przesyłania danych i spadek impulsu zegara, co przy tej samej częstotliwości taktowania 66 MHz pozwoliło uzyskać przepustowość 533 MB/s . Ten tryb nazwano AGP 2x.

Pierwsza wersja AGP 1.0 wprowadzona na rynek obsługiwała tryby pracy AGP 1x i AGP 2x.

W 1998 roku wprowadzono nową wersję magistrali, AGP 2.0, obsługującą tryb pracy AGP 4x, w którym przesyłane były już 4 bloki danych na cykl, w wyniku czego przepustowość osiągnęła 1 GB/s.

Jednocześnie referencyjna częstotliwość taktowania magistrali nie uległa zmianie i pozostała równa 66 MHz, a dla możliwości przesyłania czterech bloków danych w jednym cyklu wprowadzono dodatkowy sygnał, który rozpoczyna się synchronicznie z referencyjną częstotliwością zegara, ale na częstotliwości 133 MHz. Dane były przesyłane wraz ze wzrostem i spadkiem impulsu zegarowego dodatkowego sygnału.

Jednocześnie napięcie zasilania zostało obniżone z 3,3 V do 1,5 V, w wyniku czego karty wideo wydane tylko dla wersji AGP 1.0 były niekompatybilne z kartami wideo AGP 2.0 i kolejnymi wersjami magistrali AGP.

W 2002 roku została wydana wersja 3.0 magistrali AGP. Referencja magistrali pozostała niezmieniona, ale dodatkowy impuls zegarowy, który rozpoczął się synchronicznie z referencją, wynosił już 266 MHz. Jednocześnie transmitowano 8 bloków na 1 cykl częstotliwości odniesienia, a maksymalna prędkość wynosiła 2,1 GB/s.

Jednak pomimo wszystkich ulepszeń magistrali AGP, karty wideo rozwijały się szybciej i wymagały bardziej wydajnej magistrali. Tak więc magistrala AGP została zastąpiona przez magistralę PCI Express.

PCI ekspresowe to dwukierunkowa magistrala szeregowa typu punkt-punkt opracowana w 2002 roku przez organizację non-profit PCI-SIG, która obejmowała kampanie takie jak Intel, Microsoft, IBM, AMD, Sun Microsystems i inne.

Głównym zadaniem stojącym przed magistralą PCI Express jest zastąpienie magistrali graficznej AGP i równoległej uniwersalnej magistrali PCI.

Wersja magistrali PCI express 1.0 pracuje z częstotliwością taktowania 2,5 GHz, natomiast całkowita przepustowość jednego kanału wynosi 400 MB/s, ponieważ na każde 8 przesyłanych bitów danych przypadają 2 bity usługi, a magistrala jest dwukierunkowa, czyli , wymiana odbywa się jednocześnie w obie strony. Magistrala zazwyczaj wykorzystuje wiele kanałów: 1, 2, 4, 8, 16 lub 32, w zależności od wymaganej przepustowości. Tak więc magistrale oparte na PCI express ogólnie reprezentują zestaw niezależnych kanałów transmisji danych szeregowych.

Tak więc w przypadku korzystania z magistrali PCI Express do komunikacji z kartami wideo zwykle używa się 16-kanałowej magistrali, a do komunikacji z kartami rozszerzeń używa się magistrali jednokanałowej.

Teoretyczna maksymalna przepustowość 32-kanałowej magistrali wynosi 12,8 GB/s. Jednocześnie, w przeciwieństwie do magistrali PCI, która dzieli przepustowość między wszystkie podłączone urządzenia, magistrala PCI express jest zbudowana na zasadzie topologii gwiazdy, a każde podłączone urządzenie otrzymuje wyłączną własność całej przepustowości magistrali.

W wersji PCI express 2.0, wprowadzonej 15 stycznia 2007 r., przepustowość magistrali została podwojona. Dla jednego kanału magistrali łączna przepustowość wyniosła 800 MB/s, a dla magistrali 32-kanałowej 25,6 GB/s.

W rewizji PCI express 3.0, zaprezentowanej w listopadzie 2010, przepustowość magistrali została zwiększona 2 razy, a maksymalna liczba transakcji wzrosła z 5 do 8 miliardów, a maksymalna przepustowość wzrosła 2 razy, ze względu na zmianę zasada kodowania informacji, w której na każde 129 bitów danych przypada tylko 2 bity usługi, czyli 13 razy mniej niż w wersjach 1.0 i 2.0. Tak więc dla jednego kanału magistrali całkowita przepustowość wyniosła 1,6 GB / s, a dla magistrali 32-kanałowej - 51,2 GB / s.

Jednak PCI express 3.0 dopiero wchodzi na rynek, a pierwsze płyty główne obsługujące tę magistralę zaczęły pojawiać się pod koniec 2011 roku, a masowa produkcja urządzeń obsługujących magistralę PCI express 3.0 planowana jest na 2012 rok.

Należy zauważyć, że w tej chwili przepustowość PCI express 2.0 jest wystarczająca do normalnego funkcjonowania kart wideo, a przejście na PCI express 3.0 nie przyniesie znaczącego wzrostu wydajności w kombinacji procesor-karta wideo. Ale, jak mówią, poczekaj i zobacz.

W najbliższym czasie planujemy wydać rewizję PCI express 4.0, w której prędkość zostanie zwiększona 2 razy.

Ostatnio pojawił się trend osadzania interfejsu PCI express bezpośrednio w procesorze. Zazwyczaj takie procesory mają również wbudowany kontroler pamięci. Dzięki temu nie ma potrzeby stosowania mostka północnego, a chipset zbudowany jest w oparciu o pojedynczy układ scalony, którego głównym zadaniem jest zapewnienie współpracy z kartami rozszerzeń i urządzeniami peryferyjnymi.

Na tym kończy się przegląd interfejsów komunikacyjnych mostka północnego z kartą wideo i przechodzimy do przeglądu interfejsów komunikacyjnych mostka północnego z południowym.

3.1.3. Interfejsy komunikacyjne z mostem południowym.

Przez dość długi czas magistrala PCI była używana do łączenia mostka północnego z mostkiem południowym.

PCI (Peripheral Component Interconnect) to magistrala do podłączania kart rozszerzeń do płyty głównej, opracowana w 1992 roku przez firmę Intel. Służył też przez długi czas do połączenia mostu północnego z południowym. Jednak wraz ze wzrostem wydajności kart rozszerzeń ich przepustowość stała się niewystarczająca. Został on wyparty przez bardziej wydajne opony początkowo od zadań łączenia mostu północnego i południowego, a później ostatnie lata a do komunikacji z kartami rozszerzeń zaczęto wykorzystywać szybszą magistralę - PCI express.

Główne parametry techniczne magistrali PCI są następujące:

rewizja 1.0 2.0 2.1 2.2 2.3
Data wydania 1992 1993 1995 1998 2002
Głębokość bitowa 32 32 32/64 32/64 32/64
Częstotliwość 33 MHz 33 MHz 33/66 MHz 33/66 MHz 33/66 MHz
Pasmo 132 MB/s 132 MB/s 132/264/528 MB/s 132/264/528 MB/s 132/264/528 MB/s
Napięcie sygnału 5 V 5 V 5/3,3V 5/3,3V 5/3,3V
Wymiana na gorąco Nie Nie Nie jest jest

Istnieją inne wersje magistral PCI, na przykład do użytku w laptopach i innych urządzeniach przenośnych, lub opcje przejściowe między głównymi wersjami, ale ponieważ w tej chwili interfejs PCI został prawie zastąpiony szybszymi magistralami, nie będę opisywał szczegółowo charakterystyka wszystkich wersji.

W przypadku korzystania z magistrali do połączenia mostka północnego i południowego schemat blokowy płyty głównej będzie wyglądał następująco:

Jak widać na rysunku, mostki północny i południowy zostały połączone z magistralą PCI na równi z kartami rozszerzeń. Przepustowość magistrali była dzielona między wszystkie podłączone do niej urządzenia, a w konsekwencji deklarowana przepustowość szczytowa była redukowana nie tylko przez przesyłane informacje o usłudze, ale także przez konkurencyjne urządzenia podłączone do magistrali. W rezultacie z biegiem czasu przepustowość magistrali zaczęła wzrastać, a do komunikacji między mostami północnym i południowym zaczęto wykorzystywać autobusy takie jak hub link, DMI, HyperTransport, a magistrala PCI pozostawała przez krótki czas jako połączenie z kartami rozszerzeń.

Magistrala Hub Link była pierwszą, która zastąpiła PCI.

autobus hublink– 8-bitowa magistrala punkt-punkt opracowana przez firmę Intel. Magistrala pracuje z częstotliwością 66 MHz i przesyła 4 bajty na zegar, co pozwala uzyskać maksymalną przepustowość 266 MB/s.

Wprowadzenie magistrali hublink zmieniło architekturę płyty głównej i odciążyło magistralę PCI. Magistrala PCI została wykorzystana tylko do komunikacji z urządzeniami peryferyjnymi i kartami rozszerzeń, a magistrala hublink została wykorzystana tylko do komunikacji z mostkiem północnym.

Przepustowość magistrali hublink była porównywalna z przepustowością magistrali PCI, ale ze względu na to, że nie musiała dzielić kanału z innymi urządzeniami, a magistrala PCI została odciążona, przepustowość była całkiem wystarczająca. Ale technologia komputerowa nie stoi w miejscu, a magistrala hublink praktycznie nie jest obecnie używana ze względu na niewystarczającą prędkość. Został on zastąpiony przez autobusy, takie jak DMI i HyperTransport.

Krótki opis magistrali DMI i HyperTransportu został podany w sekcji, więc nie będę tego powtarzał.

Istniały inne interfejsy do połączenia mostu północnego z południowym, ale większość z nich jest już beznadziejnie przestarzała lub rzadko używana, więc nie będziemy się na nich skupiać. Na tym kończy się przegląd głównych funkcji i konstrukcji mostu północnego i przechodzimy do mostu południowego.

3.2. Główne funkcje Mostu Południowego.

Most południowy odpowiada za organizację interakcji z wolnymi komponentami komputera: kartami rozszerzeń, urządzeniami peryferyjnymi, urządzeniami wejścia-wyjścia, kanałami wymiany maszyna-maszyna i tak dalej.

Oznacza to, że mostek południowy przekazuje dane i żądania od podłączonych do niego urządzeń do mostka północnego, który przesyła je do procesora lub pamięci RAM i odbiera polecenia procesora i dane z pamięci RAM z mostka północnego i przekazuje je do podłączonych do niego urządzeń.

Most południowy obejmuje:

Kontroler magistrali komunikacyjnej mostka północnego (PCI, hublink, DMI, HyperTransport itp.);

Kontroler magistrali komunikacyjnej z kartami rozszerzeń (PCI, PCIe itp.);

Kontroler linii komunikacyjnych z urządzeniami peryferyjnymi i innymi komputerami (USB, FireWire, Ethernet itp.);

Kontroler magistrali komunikacyjnej dysku twardego (ATA, SATA, SCSI itp.);

Kontroler magistrali komunikacyjnej z wolnymi urządzeniami (magistrale ISA, LPC, SPI itp.).

Przyjrzyjmy się bliżej interfejsom komunikacyjnym wykorzystywanym przez mostek południowy oraz wbudowanym w niego kontrolerom urządzeń peryferyjnych.

Rozważaliśmy już interfejsy komunikacyjne mostu północnego z południem. Dlatego od razu przejdziemy do interfejsów komunikacyjnych z kartami rozszerzeń.

3.2.1. Interfejsy komunikacyjne z kartami rozszerzeń.

W tej chwili głównymi interfejsami do wymiany z kartami rozszerzeń są PCI i PCIexpress. Jednak interfejs PCI jest aktywnie wymieniany, aw ciągu najbliższych kilku lat praktycznie zniknie do historii i będzie używany tylko w niektórych wyspecjalizowanych komputerach.

Opis i krótką charakterystykę interfejsów PCI i PCIexpress podałem już w tym artykule, więc nie będę się powtarzał. Przejdźmy bezpośrednio do rozważenia interfejsów komunikacyjnych z urządzeniami peryferyjnymi, urządzeniami wejścia-wyjścia i innymi komputerami.

3.2.2. Interfejsy komunikacyjne z urządzeniami peryferyjnymi, urządzeniami wejścia-wyjścia i innymi komputerami.

Istnieje wiele różnych interfejsów do komunikacji z urządzeniami peryferyjnymi i innymi komputerami, z których najpopularniejsze są wbudowane w płytę główną, ale można również dodać dowolny interfejs za pomocą kart rozszerzeń podłączonych do płyty głównej za pośrednictwem magistrali PCI lub PCIexpress.

przyniosę krótki opis oraz charakterystykę najpopularniejszych interfejsów.

USB (uniwersalna magistrala szeregowa)- uniwersalny kanał transmisji szeregowej danych umożliwiający podłączenie do komputera urządzeń peryferyjnych średniej i małej prędkości.

Magistrala jest ściśle zorientowana i składa się z kontrolera kanału i kilku podłączonych do niego urządzeń końcowych. Zazwyczaj kontrolery kanałów USB są wbudowane w mostek południowy płyty głównej. Nowoczesne płyty główne mogą pomieścić do 12 kontrolerów kanałów USB z dwoma portami każdy.

Nie ma możliwości połączenia ze sobą dwóch kontrolerów kanałów lub dwóch urządzeń końcowych, więc nie można bezpośrednio połączyć ze sobą dwóch komputerów lub dwóch urządzeń peryferyjnych przez USB.

Jednak do komunikacji między kontrolerami dwukanałowymi można użyć dodatkowych urządzeń. Na przykład emulator adaptera Ethernet. Dwa komputery łączą się z nim przez USB i oba widzą urządzenie końcowe. Adapter Ethernet przekazuje dane otrzymane z jednego komputera do drugiego poprzez emulację protokołu sieciowego Ethernet. Jednak konieczne jest zainstalowanie określonych sterowników emulatora karty Ethernet na każdym podłączonym komputerze.

Interfejs USB posiada wbudowane linie zasilające, co umożliwia korzystanie z urządzeń bez własnego zasilania lub jednoczesne ładowanie akumulatorów urządzeń końcowych, takich jak telefony, podczas wymiany danych.

Jeżeli jednak pomiędzy kontrolerem kanału a urządzeniem końcowym jest używany koncentrator USB, to musi on mieć dodatkowe zasilanie zewnętrzne, aby zapewnić wszystkim podłączonym do niego urządzeniom moc wymaganą przez standard interfejsu USB. Jeśli używasz koncentratora USB bez dodatkowego źródła zasilania, to jeśli podłączysz kilka urządzeń bez własnych źródeł zasilania, najprawdopodobniej nie będą działać.

USB obsługuje podłączanie urządzeń końcowych na gorąco. Jest to możliwe dzięki dłuższemu kontaktowi z masą niż styki sygnałowe. Dlatego przy podłączaniu urządzenia końcowego styki masy są najpierw zwierane, a różnica potencjałów między komputerem a urządzeniem końcowym jest wyrównana. Dlatego dalsze podłączenie przewodów sygnałowych nie prowadzi do przepięcia.

Obecnie istnieją trzy główne wersje interfejsu USB (1.0, 2.0 i 3.0). Co więcej, są one kompatybilne oddolnie, to znaczy urządzenia zaprojektowane dla wersji 1.0 będą działały odpowiednio z interfejsem w wersji 2.0, urządzenia zaprojektowane dla USB 2.0 będą działały z USB 3.0, ale urządzenia dla USB 3.0 najprawdopodobniej nie będą działać z Interfejs USB 2.0.

Rozważ główne cechy interfejsu, w zależności od wersji.

USB 1.0 to pierwsza wersja interfejsu USB, wydana w listopadzie 1995 roku. W 1998 roku rewizja została sfinalizowana, błędy i niedociągnięcia zostały wyeliminowane. Powstała wersja USB 1.1 była pierwszą szeroko przyjętą.

Specyfikacje dla wersji 1.0 i 1.1 są następujące:

Szybkość przesyłania danych - do 12 Mb/s (tryb Full-Speed) lub 1,5 Mb/s (tryb Low-Speed);

Maksymalna długość kabla to 5 metrów dla trybu Low-Speed ​​i 3 metry dla trybu Full-Speed;

USB 2.0 to wersja wydana w kwietniu 2000 roku. Główną różnicą w stosunku do poprzedniej wersji jest wzrost prędkość maksymalna transfer danych do 480 Mb/s. W praktyce ze względu na duże opóźnienia między żądaniem transmisji danych a rozpoczęciem transmisji nie można osiągnąć prędkości 480 Mb/s.

Specyfikacje techniczne wersji 2.0 są następujące:

Szybkość przesyłania danych - do 480 Mb/s (Hi-speed), do 12 Mb/s (tryb Full-Speed) lub do 1,5 Mb/s (tryb Low-Speed);

Synchroniczna transmisja danych (na życzenie);

Wymiana półdupleksowa (jednoczesna transmisja jest możliwa tylko w jednym kierunku);

Maksymalna długość kabla to 5 metrów;

Maksymalna liczba urządzeń podłączonych do jednego kontrolera (łącznie z mnożnikami) to 127;

Do jednego kontrolera USB można podłączyć urządzenia działające w różnych trybach przepustowości;

Napięcie zasilania urządzeń peryferyjnych - 5 V;

Maksymalny prąd - 500 mA;

Kabel składa się z czterech linii komunikacyjnych (dwie do odbioru i transmisji danych oraz dwie do zasilania urządzeń peryferyjnych) oraz oplotu uziemiającego.

USB 3.0 to wersja wydana w listopadzie 2008 roku. W nowej wersji prędkość została zwiększona o rząd wielkości, do 4800 Mb/s, a obecna siła została prawie podwojona, do 900 mA. W tym samym czasie wygląd złącz i kabli bardzo się zmienił, ale kompatybilność oddolna pozostała. Tych. urządzenia współpracujące z USB 2.0 będą mogły podłączyć się do złącza 3.0 i będą działać.

Specyfikacje techniczne wersji 3.0 są następujące:

Szybkość przesyłania danych - do 4800 Mbps (tryb SuperSpeed), do 480 Mbps (tryb Hi-speed), do 12 Mbps (tryb Full-Speed) lub do 1,5 Mbps (Low-Speed) tryb) );

Architektura podwójnej magistrali (magistrala Low-Speed/Full-Speed/High-Speed ​​i oddzielna magistrala SuperSpeed);

Asynchroniczny transfer danych;

Wymiana dupleksowa w trybie SuperSpeed ​​(możliwa jednoczesna transmisja i odbiór danych) oraz simpleks w innych trybach.

Maksymalna długość kabla to 3 metry;

Maksymalna liczba urządzeń podłączonych do jednego kontrolera (łącznie z mnożnikami) to 127;

Napięcie zasilania urządzeń peryferyjnych - 5 V;

Maksymalny prąd - 900 mA;

Ulepszony system zarządzania energią w celu oszczędzania energii, gdy urządzenia końcowe są bezczynne;

Kabel składa się z ośmiu linii komunikacyjnych. Cztery linie komunikacyjne są takie same jak w USB 2.0. Dodatkowe dwie linie komunikacyjne do odbioru danych i dwie do transmisji SuperSpeed ​​oraz dwie plecionki uziemiające: jedna dla kabli danych Low-Speed ​​/ Full-Speed ​​/ High-Speed ​​i jedna dla kabli, stosowanych w SuperSpeed tryb.

IEEE 1394 (Instytut Inżynierów Elektryków i Elektroników) to standard szeregowych szybkich autobusów przyjęty w 1995 roku. Opony zaprojektowane zgodnie z tym standardem są różnie nazywane przez różne firmy. Apple ma FireWire, Sony i.LINK, Yamaha mLAN, Texas Instruments Lynx, Creative SB1394 i tak dalej. Z tego powodu często pojawia się zamieszanie, ale pomimo różnych nazw jest to ten sam autobus działający według tego samego standardu.

Ta magistrala jest przeznaczona do podłączania szybkich urządzeń peryferyjnych, takich jak zewnętrzne dyski twarde, kamery cyfrowe, syntezatory muzyczne i tak dalej.

Główne parametry techniczne opony to:

Maksymalna szybkość przesyłania danych waha się od 400 Mb/s dla wersji IEEE 1394 do 3,2 Gb/s dla wersji IEEE 1394b;

Maksymalna długość komunikacji między dwoma urządzeniami waha się od 4,5 metra dla wersji IEEE 1394 do 100 metrów dla wersji IEEE 1394b i starszych;

Maksymalna liczba urządzeń podłączonych szeregowo do jednego kontrolera to 64, łącznie z koncentratorami IEEE. W takim przypadku wszystkie podłączone urządzenia współdzielą przepustowość magistrali. Każdy koncentrator IEEE może podłączyć do 16 dodatkowych urządzeń. Zamiast podłączać urządzenie można podłączyć zworkę magistrali, przez którą można podłączyć kolejne 63 urządzenia. Łącznie można podłączyć do 1023 zworek magistrali, co pozwoli zorganizować sieć 64 449 urządzeń. Nie można podłączyć większej liczby urządzeń, ponieważ w standardzie IEEE 1394 każde urządzenie ma adres 16-bitowy;

Możliwość łączenia w sieć wielu komputerów;

Podłączanie i odłączanie urządzeń na gorąco;

Możliwość korzystania z urządzeń zasilanych z magistrali, które nie posiadają własnego zasilania. W tym przypadku maksymalna siła prądu wynosi do 1,5 ampera, a napięcie od 8 do 40 woltów.

Ethernet- standard budowy sieci komputerowych w oparciu o technologię pakietowej transmisji danych, opracowany w 1973 roku przez Roberta Metclougha z Xerox PARC Corporation.

Norma definiuje rodzaje sygnałów elektrycznych i zasady połączeń przewodowych, opisuje formaty ramek i protokoły przesyłania danych.

Istnieją dziesiątki różnych wersji standardu, ale obecnie najbardziej powszechna jest grupa standardów: Fast Ethernet i Gigabit Ethernet.

Fast Ethernet zapewnia transfer danych z prędkością do 100 Mb/s. Zasięg transmisji danych w jednym segmencie sieci bez repeaterów wynosi od 100 metrów (grupa standardowa 100BASE-T wykorzystująca skrętkę do transmisji danych) do 10 kilometrów (grupa standardowa 100BASE-FX wykorzystująca światłowód jednomodowy do transmisji danych).

Gigabit Ethernet zapewnia transfer danych z szybkością do 1 Gb/s. Zasięg transmisji danych w jednym segmencie sieci bez repeaterów wynosi od 100 metrów (grupa standardowa 1000BASE-T, wykorzystująca cztery skrętki do transmisji danych) do 100 kilometrów (grupa standardowa 1000BASE-LH, wykorzystująca światłowód jednomodowy do transmisji danych).

Do przesyłania dużych ilości informacji istnieją standardy dziesięciu, czterdziestu i stu gigabitów Ethernet, działające w oparciu o światłowodowe linie komunikacyjne. Jednak więcej szczegółów na temat tych standardów i ogólnie technologii Ethernet zostanie opisanych w osobnym artykule na temat komunikacji maszyna-maszyna.

Wi-Fi- linia komunikacji bezprzewodowej stworzona w 1991 roku przez holenderską firmę NCR Corporation / AT&T. WiFi jest oparte na standardzie IEEE 802.11. i służy zarówno do komunikacji z urządzeniami peryferyjnymi, jak i do organizowania sieci lokalnych.

Wi-Fi umożliwia bezpośrednie połączenie dwóch komputerów lub komputera i urządzenia peryferyjnego za pomocą technologii punkt-punkt lub zorganizowanie sieci za pomocą punktu dostępowego, z którym może łączyć się kilka urządzeń jednocześnie.

Maksymalna szybkość przesyłania danych zależy od zastosowanej rewizji standardu IEEE 802.11, ale w praktyce będzie ona znacznie niższa od deklarowanych parametrów, ze względu na koszty ogólne, obecność przeszkód na drodze propagacji sygnału, odległość między źródłami sygnału i odbiornik oraz inne czynniki. W praktyce średnia przepustowość będzie w najlepszym przypadku 2-3 razy mniejsza niż deklarowana maksymalna przepustowość.

W zależności od wersji standardu przepustowość Wi-Fi jest następująca:

Wersja standardowa Częstotliwość zegara Żądana maksymalna moc Średnia szybkość transmisji danych w praktyce Zasięg komunikacji wewnątrz/na zewnątrz
802.11a 5 GHz 54 Mb/s 18,4 Mb/s 35/120 m²
802.11b 2,4 GHz 11 Mb/s 3,2 Mb/s 38/140 m²
802.11g 2,4 GHz 54 Mb/s 15,2 Mb/s 38/140 m²
802.11n 2,4 lub 5 GHz 600 Mb/s 59,2 Mb/s 70/250 m²

Istnieje wiele innych interfejsów do komunikacji z urządzeniami peryferyjnymi i organizowania sieci lokalnych. Jednak rzadko są one wbudowane w płytę główną i zwykle są używane jako karty rozszerzeń. Dlatego te interfejsy, wraz z opisanymi powyżej, omówimy w artykule poświęconym interakcji maszyna-maszyna, a teraz przejdźmy do opisu interfejsów komunikacyjnych mostka południowego z dyskami twardymi.

3.2.3. Interfejsy magistrali komunikacyjnej mostka południowego z dyskami twardymi.

Początkowo interfejs ATA służył do komunikacji z dyskami twardymi, ale później został wyparty przez wygodniejsze i nowoczesne interfejsy SATA i SCSI. Przedstawiamy krótki przegląd tych interfejsów.

ATA (Advanced Technology Attachment) lub PATA (Parallel ATA) to równoległy interfejs komunikacyjny opracowany w 1986 roku przez Western Digital. W tamtym czasie nazywano go IDE (Integrated Drive Electronics), ale później zmieniono jego nazwę na ATA, a wraz z pojawieniem się interfejsu SATA w 2003 r. PATA przemianowano na PATA.

Korzystanie z interfejsu PATA oznacza, że ​​kontroler dysku twardego nie znajduje się na płycie głównej ani w postaci karty rozszerzeń, ale jest wbudowany w sam dysk twardy. Na płycie głównej, czyli w mostku południowym, znajduje się tylko kontroler kanału PATA.

Do podłączenia dysków twardych z interfejsem PATA zwykle używa się kabla 40-żyłowego. Wraz z wprowadzeniem trybu PATA/66 pojawiła się jego 80-przewodowa wersja. Maksymalna długość pętli to 46 cm, do jednej pętli można podłączyć dwa urządzenia, przy czym jedno z nich musi być urządzeniem nadrzędnym, a drugie podrzędnym.

Istnieje kilka wersji interfejsu PATA, różniących się szybkością przesyłania danych, trybami pracy i innymi funkcjami. Poniżej znajdują się główne wersje interfejsu PATA.

W praktyce przepustowość magistrali jest znacznie mniejsza niż deklarowana teoretyczna przepustowość, ze względu na narzut związany z organizacją protokołu wymiany i inne opóźnienia. Ponadto, jeśli do magistrali podłączone są dwa dyski twarde, przepustowość zostanie między nie podzielona.

W 2003 roku interfejs SATA zastąpił interfejs PATA.

SATA (Serial ATA)- interfejs szeregowy do łączenia mostka południowego z dyskami twardymi, opracowany w 2003 roku.

W przypadku korzystania z interfejsu SATA każdy dysk jest podłączony własnym kablem. Ponadto kabel jest znacznie węższy i wygodniejszy niż kabel używany w interfejsie PATA i ma maksymalną długość do 1 metra. Oddzielny kabel zasila dysk twardy.

I nawet pomimo tego, że całkowita liczba kabli wzrasta w porównaniu z interfejsem PATA, ponieważ każdy dysk jest połączony dwoma kablami, wewnątrz jednostki systemowej jest znacznie więcej wolnego miejsca. Prowadzi to do poprawy wydajności układu chłodzenia, ułatwia dostęp do różnych elementów komputera, a jednostka systemowa wygląda bardziej reprezentacyjnie od wewnątrz.

W tej chwili istnieją trzy główne wersje interfejsu SATA. Poniższa tabela przedstawia główne parametry wersji.

Od tych interfejsów oddzielony jest interfejs SCSI.

SCSI (interfejs małego systemu komputerowego)- uniwersalna magistrala do podłączania szybkich urządzeń, takich jak dyski twarde, napędy DVD i Blue-Ray, skanery, drukarki i tak dalej. Autobus ma dużą przepustowość, ale jest skomplikowany i drogi. Dlatego jest stosowany głównie w serwerach i przemysłowych systemach obliczeniowych.

Pierwsza wersja interfejsu została wprowadzona w 1986 roku. W tej chwili istnieje około 10 wersji opon. Poniższa tabela przedstawia główne parametry najpopularniejszych wersji.

Wersja interfejsu Głębokość bitowa Częstotliwość komunikacji Maks. wydajność Długość kabla (m) Maks. liczba urządzeń rok wydania
SCSI-1 8 bitowy 5 MHz 40 Mb/s 6 8 1986
SCSI-2 8 bitowy 10 MHz 80 Mb/s 3 8 1989
SCSI-3 8 bitowy 20 MHz 160 Mb/s 3 8 1992
Ultra-2SCSI 8 bitowy 40 MHz 320 Mb/s 12 8 1997
Ultra-3SCSI 16 bitów 80 MHz 1,25 Gb/s 12 16 1999
Ultra-320SCSI 16 bitów 160 MHz 2,5 Gb/s 12 16 2001
Ultra-640SCSI 16 bitów 320 MHz 5 Gb/s 12 16 2003

Zwiększenie przepustowości interfejsu równoległego wiąże się z szeregiem trudności, a przede wszystkim jest ochroną przed zakłóceniami elektromagnetycznymi. A każda linia komunikacyjna jest źródłem zakłóceń elektromagnetycznych. Im więcej linii komunikacyjnych jest w szynie równoległej, tym bardziej będą się wzajemnie zakłócać. Im wyższa częstotliwość transmisji danych, tym więcej zakłóceń elektromagnetycznych i tym bardziej wpływają one na transmisję danych.

Oprócz tego problemu istnieją mniej istotne, takie jak:

  • złożoność i wysoki koszt produkcji szyn równoległych;
  • problemy z synchroniczną transmisją danych po wszystkich liniach magistrali;
  • złożoność urządzenia i wysoka cena sterowników magistrali;
  • złożoność organizacji urządzenia z pełnym dupleksem;
  • złożoność zapewnienia każdemu urządzeniu własnej magistrali itp.

W rezultacie łatwiej jest zrezygnować z interfejsu równoległego na rzecz interfejsu szeregowego o wyższej częstotliwości taktowania. W razie potrzeby można zastosować kilka linii komunikacji szeregowej, oddalonych od siebie i chronionych oplotem ekranującym. Dokonano tego podczas przejścia z równoległej magistrali PCI na szeregową magistralę PCI express, z PATA na SATA. Magistrala SCSI podążała tą samą ścieżką rozwoju. Tak więc w 2004 roku pojawił się interfejs SAS.

SAS (Serial Attached SCSI) magistrala szeregowa punkt-punkt, która zastąpiła równoległą magistralę SCSI. Do wymiany przez magistralę SAS używany jest model poleceń SCSI, ale przepustowość jest zwiększona do 6 Gb / s (SAS wersja 2, wydana w 2010 r.).

W 2012 roku planowane jest wydanie wersji SAS 3, która ma przepustowość 12 Gb/s, jednak urządzenia obsługujące tę wersję nie zaczną się masowo pojawiać do 2014 roku.

Nie zapominaj również, że magistrala SCSI była współdzielona, ​​co pozwala na podłączenie do 16 urządzeń, a wszystkie urządzenia współdzieliły przepustowość magistrali. A magistrala SAS wykorzystuje topologię punkt-punkt. I dlatego każde urządzenie jest połączone własną linią komunikacyjną i odbiera całą przepustowość magistrali.

Kontrolery SCSI i SAS rzadko są wbudowane w płytę główną, ponieważ są dość drogie. Zwykle są one podłączane jako karty rozszerzeń do magistrali PCI lub PCI express.

3.2.4. Interfejsy komunikacyjne z wolnymi komponentami płyty głównej.

Do komunikacji z wolnymi komponentami płyty głównej, takimi jak niestandardowe ROMy lub kontrolery interfejsów o niskiej prędkości, wykorzystywane są specjalizowane magistrale, takie jak: ISA, MCA, LPS i inne.

Magistrala Industry Standard Architecture (ISA) to 16-bitowa magistrala opracowana w 1981 roku. ISA działał z szybkością zegara 8 MHz i miał przepustowość do 8 MB/s. Opona od dawna jest przestarzała i nie jest używana w praktyce.

Alternatywą dla magistrali ISA była magistrala MCA (Micro Channel Architecture), opracowana w 1987 roku przez firmę Intel. Ta magistrala była 32-bitowa z szybkością przesyłania danych 10 MHz i przepustowością do 40 Mb/s. Obsługiwana technologia Plug and Play. Jednak zamknięty charakter autobusu i surowa polityka licencyjna IBM sprawiły, że stał się niepopularny. W chwili obecnej autobus nie jest używany w praktyce.

Prawdziwym zamiennikiem ISA była magistrala LPC (Low Pin Count), opracowana przez firmę Intel w 1998 roku i używana do dziś. Magistrala pracuje z częstotliwością zegara 33,3 MHz, co zapewnia przepustowość 16,67 Mb/s.

Przepustowość magistrali jest dość mała, ale wystarczająca do komunikacji z wolnymi komponentami płyty głównej. Za pomocą tej magistrali wielofunkcyjny kontroler (Super I/O) jest podłączony do mostka południowego, w skład którego wchodzą kontrolery wolnych interfejsów komunikacyjnych oraz urządzenia peryferyjne:

  • interfejs równoległy;
  • interfejs szeregowy;
  • gniazdo podczerwieni;
  • interfejs PS/2;
  • napęd dyskietek i inne urządzenia.

Magistrala LPC zapewnia również dostęp do BIOS-u, o czym porozmawiamy w dalszej części naszego artykułu.

4. BIOS (podstawowy system wejścia-wyjścia).

BIOS (Basic Input-Output System - podstawowy system wejścia-wyjścia) to program, który jest flashowany do pamięci tylko do odczytu (ROM). W naszym przypadku pamięć ROM jest wbudowana w płytę główną, ale jej własna wersja BIOS jest obecna w prawie wszystkich elementach komputera (w karcie graficznej, karcie sieciowej, kontrolerach dysków itp.) I ogólnie w prawie wszystkie urządzenia elektroniczne (zarówno w drukarce, jak iw kamerze, w modemie itp.).

BIOS płyty głównej odpowiada za sprawdzanie funkcjonalności kontrolerów wbudowanych w płytę główną i większości podłączonych do niej urządzeń (procesor, pamięć, karta graficzna, dyski twarde itp.). Power-On Self Test (POST) jest sprawdzany, gdy komputer jest włączony.

Następnie BIOS inicjalizuje kontrolery wbudowane w płytę główną i niektóre podłączone do nich urządzenia oraz ustawia ich podstawowe parametry pracy, na przykład częstotliwość magistrali systemowej, procesora, kontrolera RAM, dysków twardych, kontrolerów wbudowanych w płytę główną itp. re.

Jeśli testowane kontrolery i sprzęt są sprawne i skonfigurowane, system BIOS przekazuje kontrolę do systemu operacyjnego.

Użytkownicy mogą zarządzać większością ustawień BIOS-u, a nawet je aktualizować.

Aktualizacja systemu BIOS jest bardzo rzadko wymagana, jeśli na przykład programiści wykryli i naprawili podstawowy błąd w programie inicjującym dowolnego urządzenia lub jeśli wymagana jest obsługa nowego urządzenia (na przykład nowego modelu procesora). Jednak w większości przypadków wydanie nowego typu procesora lub pamięci wymaga kardynalnego „uaktualnienia” komputera. Powiedzmy za to „dziękuję” producentom elektroniki.

Aby skonfigurować ustawienia BIOS, dostępne jest specjalne menu, do którego można wejść, naciskając kombinację klawiszy wskazaną na ekranie monitora podczas testów POST. Zwykle musisz nacisnąć klawisz DEL, aby wejść do menu konfiguracji BIOS.

W tym menu możesz ustawić czas systemu, parametry pracy dysków twardych i dysków twardych, zwiększają (lub zmniejszają) częstotliwość taktowania procesora, pamięci i magistrali systemowej, magistrale komunikacyjne oraz konfigurują inne parametry pracy komputera. Należy jednak zachować szczególną ostrożność, ponieważ niepoprawnie ustawione parametry mogą prowadzić do błędów w działaniu lub nawet wyłączyć komputer.

Wszystkie ustawienia BIOS są przechowywane w ulotnej pamięci CMOS, zasilanej baterią lub akumulatorem zainstalowanym na płycie głównej. Jeśli bateria lub akumulator jest rozładowany, komputer może się nie włączyć lub może nie działać prawidłowo. Np. błędnie zostanie ustawiony czas systemowy lub zostaną ustawione parametry pracy niektórych urządzeń.

5. Pozostałe elementy płyty głównej.

Oprócz elementów opisanych powyżej na płycie głównej znajduje się generator częstotliwości taktowania, składający się z rezonatora kwarcowego i generatora zegara. Generator częstotliwości zegara składa się z dwóch części, ponieważ rezonator kwarcowy nie jest w stanie generować impulsów o częstotliwości wymaganej do działania nowoczesnych procesorów, pamięci i szyn, dlatego częstotliwość zegara generowana przez rezonator kwarcowy jest zmieniana za pomocą generatora zegara, który mnoży lub dzieli oryginalne częstotliwości w celu uzyskania wymaganej częstotliwości.

Głównym zadaniem generatora zegara płyty głównej jest tworzenie bardzo stabilnego sygnału okresowego do synchronizacji działania elementów komputera.

Częstotliwość impulsów zegarowych w dużej mierze determinuje szybkość obliczeń. Ponieważ na dowolną operację wykonywaną przez procesor zużywana jest pewna liczba cykli, im wyższa częstotliwość zegara, tym wyższa wydajność procesora. Oczywiście dotyczy to tylko procesorów z tą samą mikroarchitekturą, ponieważ procesory z różnymi mikroarchitekturami mogą wymagać różnej liczby cykli, aby wykonać tę samą sekwencję instrukcji.

Wygenerowaną częstotliwość zegara można zwiększyć, zwiększając w ten sposób wydajność komputera. Ale ten proces wiąże się z szeregiem niebezpieczeństw. Po pierwsze, wraz ze wzrostem częstotliwości taktowania zmniejsza się stabilność działania komponentów komputera, dlatego po każdym „przetaktowaniu” komputera wymagane są poważne testy w celu sprawdzenia stabilności jego działania.

Ponadto „przetaktowywanie” może prowadzić do uszkodzenia elementów komputera. Co więcej, awaria elementów najprawdopodobniej nie będzie natychmiastowa. Żywotność elementów eksploatowanych w warunkach innych niż zalecane można po prostu drastycznie skrócić.

Oprócz generatora zegara na płycie głównej znajduje się wiele kondensatorów zapewniających płynny przepływ napięcia. Faktem jest, że zużycie energii przez elementy komputera podłączone do płyty głównej może się radykalnie zmienić, zwłaszcza gdy praca jest zawieszona i wznowiona. Kondensatory wygładzają takie skoki napięcia, zwiększając w ten sposób stabilność i żywotność wszystkich elementów komputera.

Być może są to wszystkie główne elementy nowoczesnych płyt głównych, a ten przegląd urządzenia płyty głównej można zakończyć.


Płyta główna („płyta główna” / płyta główna) lub innymi słowy płyta systemowa jest integralną częścią komputera osobistego. Swoim wyglądem przypomina zwykłą płytkę tekstolitu, na której w dużej ilości znajdują się miedziane przewodniki, złącza, interfejsy i inne detale. Mówiąc w suchym oficjalnym języku, płyta główna jest główną jednostką montażową.

Wszystkie elementy komputera osobistego są zainstalowane w jego złączach i interfejsach: procesor główny, karty rozszerzeń, karta lub karty graficzne, pamięć RAM, a także dysk twardy i inne dyski / czytniki informacji.

Ponadto płyta główna jest rodzajem przewodnika dla zewnętrznych manipulatorów i serwisowych urządzeń peryferyjnych. Mysz, klawiatura, drukarki, monitor, skanery, sprzęt komunikacyjny i inne urządzenia są podłączone do różnych złączy z tyłu płyty głównej.

Aby cała ta odmiana działała tak, jak powinna, wymagane jest dodatkowe źródło zasilania, to znaczy płyta jednostki systemowej musi być podłączona do tego źródła za pomocą oryginalnego złącza. Większość z tych interfejsów jest wyposażona w specjalny „niezawodny”, w którym odbiornik ma plastikowe klawisze i można go włożyć tylko w jeden, prawidłowy sposób. Inne złącza mają podobne zasady łączenia, to znaczy producent rozważnie zadbał o to, aby drogie komponenty nie uległy awarii z powodu niewłaściwego podłączenia. Wiele wybitnych płyt głównych wyróżnia się takimi cechami: Asrock, MSI, Gigabyte, Asus i inne.

Współczynniki kształtu płyty głównej

Współczynnik kształtu płyty głównej określa punkty mocowania do jednostki systemowej. Oprócz, różne rodzaje płyty mają charakterystyczne położenie złączy zasilania, liczbę interfejsów do podłączenia urządzeń peryferyjnych i elementów wewnętrznych, a także ich lokalizację. W sumie można przeczytać trzy główne typy płyt głównych. Prawie wszystkie marki, które, jak mówią, są dobrze znane, w pełni obsługują te standardy, czyli płyty główne MSI, Asus, Samsung, Gigabyte Asrock itp.

Formy czynników:

  1. Mini-ITX. Najmniejszy rozmiar płyty z minimalną liczbą interfejsów i najczęściej z już zintegrowanym procesorem (opcja budżetowa).
  2. Mikro-ATX. Charakterystyka płyty głównej jest określana jako średnia pod względem funkcjonalności. Różni się w dopuszczalnych rozmiarach i jest brane pod uwagę najlepsza opcja do domowego komputera osobistego, aczkolwiek z niewielkim zestawem interfejsów do podłączania urządzeń peryferyjnych innych firm. Najczęściej chipset jest instalowany na takiej płycie głównej z pewnymi ograniczeniami, ale nie są one krytyczne dla pełnego działania domowego komputera.
  3. Standardowy-ATX. Bardzo duży rozmiar z grupy z w pełni funkcjonalnym zestawem chipsetów. Posiada wystarczającą liczbę interfejsów do pełnoprawnej pracy z wszelkiego rodzaju urządzeniami peryferyjnymi. Oferuje wygodną i bezproblemową instalację oraz szeroką gamę opcji połączeń.

Pamiętaj, aby wziąć pod uwagę rozmiar płyty głównej, a także jej rozmiar, jeśli samodzielnie uzupełniasz jednostkę systemową. W każdym przypadku można zainstalować płytę główną mini-ITX, ale inne typy muszą pasować do rozmiaru jednostki systemowej.

Gniazda do procesorów ("Socket" / Socket)

Rozważ niektóre cechy gniazd procesorów. Ogólnie rzecz biorąc, płyta główna jest indywidualną rzeczą dla każdego procesora i odwrotnie. Dlatego przy wyborze komponentów, a mianowicie procesora, należy wziąć pod uwagę charakterystykę tego złącza.

Typowy zakres interfejsów gniazd jest dość duży i tylko jeden typ jest odpowiedni dla każdego zestawu chipsetów. Na przykład płyta główna Gigabyte GA z zestawem AMD jest oznaczona jako FX2, AM3 i AM3+. Oznacza to, że kupując dowolny procesor z jednym z tych znaków „Socket”, możesz go łatwo podłączyć do tej płyty głównej. Tak samo jest z konkurencją Intela: oznaczenia LGA 1150 i 1155 pozwolą dobrać odpowiedni zestaw chipsetów np. do płyt głównych Samsunga czy Asusa.

BIOS (BIOS)

Następnie przyjrzymy się cechom wyróżniającym każdą płytę główną. Nie ma znaczenia, jaki masz zestaw - pierwszą lub drugą płytę główną, starą lub nową itp. W każdym razie będzie ona zawierać układ BIOS do podstawowej systematyzacji wejścia i wyjścia (BIOS - Basic Input-Output System).

Każda płyta główna (Gigabyte, Asus, Samsung, MSI i inne) zawiera kilka krytycznych podsystemów, które muszą być poprawnie skonfigurowane. Niektóre funkcje można wyłączyć, jeśli na przykład nie potrzebujesz zintegrowanego akceleratora graficznego, ponieważ na pokładzie zainstalowana jest zewnętrzna karta graficzna.

Wszystkie ustawienia BIOS są przechowywane w specjalnym układzie CMOS (więcej na ten temat poniżej). To rodzaj urządzenia pamięciowego „na wieki”, działającego na ogniwie litowym. Nawet jeśli wyłączysz komputer na bardzo długi czas, dane w CMOS zostaną zachowane. W razie potrzeby możesz „z grubsza” zresetować wszystkie ustawienia, wyjmując baterię spod chipa. Tego momentu nie można nazwać krytycznym, ponieważ wszystkie niezbędne komponenty do uruchomienia komputera takie jak twardy dysk lub RAM są wykrywane automatycznie – przynajmniej w nowoczesnych systemach (po 2006 r.). Uprzednio ustawiona data i godzina zostaną naturalnie zresetowane.

Układ CMOS

Prawie każda płyta główna (ASUS, Gigabyte, MSI i inne) zawiera układ CMOS, który zapamiętuje wszystkie zmiany wprowadzone w BIOS-ie. Sam układ pobiera bardzo niski prąd - nieco mniej niż mikroamper, więc ładowanie baterii wystarcza na rok, a nawet kilka lat.

Czasami, jeśli element jest całkowicie osadzony, komputer może odmówić uruchomienia. Wielu początkujących mistrzów w tym przypadku natychmiast grzeszy na płycie głównej. Aby to wyeliminować możliwa przyczyna(po długim okresie bezczynności komputera) należy wyjąć ogniwo baterii spod układu CMOS i ponownie uruchomić system. Jeśli komputer uruchomił się lub zaczął wykazywać oznaki życia, problem tkwił właśnie w rozładowanej baterii CMOS.

Warto również zauważyć, że widać oznaczenie na elemencie, gdzie dwie pierwsze cyfry oznaczają średnicę baterii, a dwie kolejne pojemność. Każda „szanująca się” płyta główna (Gigabyte, MSI, Asus, Samsung itp.) powinna być wyposażona w oznaczenie baterii CMOS. Jeśli jej nie spotkałeś, to jest powód, aby być ostrożnym i wątpić w oryginalność i dziewictwo zakupionego produktu. Im większa pojemność baterii, tym dłużej ogniwo wytrzyma i tym będzie grubsze. W standardowym pakiecie płyt głównych najczęściej znajduje się akumulator 2032, czyli akumulator o średnicy 20 mm i pojemności 32 mAh. Nieco rzadziej można znaleźć skromniejsze elementy jak 2025.

Interfejs IDE

Kolejną nie mniej ważną częścią, w którą jest wyposażona każda płyta główna (ASUS, MSI, Gigabyte, Asrock i inne) są interfejsy do pracy z dyskami twardymi i czytnikami danych, czyli w większości przypadków z dyskami twardymi, napędami DVD i innymi informacjami o multimediach .

W takich przypadkach komputery osobiste w domu i biurze używają dwóch głównych interfejsów - są to IDE i SATA. Złącze IDE (Integrated Drive Electronics) to 40-stykowy odbiornik, który może sterować dyskiem twardym lub napędem DVD za pomocą elastycznego kabla taśmowego. Dzisiejsze realia zmuszają nas do powolnego porzucania tego typu interfejsu, niemniej jednak wciąż można go znaleźć na niektórych płytach głównych (najczęściej MSI i Asus), aby móc podłączyć stare dyski twarde i dyski.

Podobnie jak w przypadku złącza zasilania, interfejs IDE jest „niezawodny”, czyli nie da się go niepoprawnie podłączyć. Stare płyty główne były wyposażone w parę takich odbiorników, czyli pierwotny i wtórny (odpowiednio pierwotny i wtórny). Najczęściej Dysk twardy podłączony do styku podstawowego, a napędy czytnika - do drugiego.

Każdy interfejs IDE (kanał) może być podłączony do dwóch urządzeń zewnętrznych - master (master) i slave (slave). Wybór odpowiedniego parametru nośnika jest wybierany za pomocą specjalnych zworek (zworek) na samych urządzeniach. Co więcej, jeśli przez pomyłkę ustawisz dwóch „nadrzędnych” lub podrzędnych na jednym kanale, żaden z nich nie będzie działał, więc zawsze musi być urządzenie główne i boczne.

Interfejs SATA

Kanał SATA to szeregowy zestaw interfejsów i w przeciwieństwie do IDE pozwala na pracę ze znacznie większymi prędkościami z podłączonymi urządzeniami. W tej chwili prawie całkowicie wyeliminował obecność urządzeń IDE i nadal się rozwija (SATA2, SATA3 itp.).

W zależności od wybranego współczynnika kształtu i producenta płyty głównej płyta główna może mieć różną liczbę złączy SATA. Dzisiejsze standardowe wyposażenie obejmuje co najmniej cztery tego typu interfejsy, podczas gdy starsze modele były wyposażone tylko w dwa.

Interfejs PS/2

Jak wspomniano powyżej, płyta główna posiada interfejsy do pracy z zewnętrznymi urządzeniami peryferyjnymi. Do połączenia klawiatury i manipulatorów typu „mysz” zaprojektowano sześciopinowe odbiorniki PS/2 z odpowiednimi klawiszami i pomalowane na różne kolory. Ten moment można również nazwać „niezawodnym”, ponieważ każdy kolor odpowiada rodzajowi podłączonego sprzętu (mysz – zielony, klawiatura – liliowy), a to działa w obie strony, czyli np. na myszkę, styk powinien być zielonym.

Należy natychmiast ostrzec użytkowników, że w żadnym wypadku nie należy podłączać ani odłączać urządzeń peryferyjnych od złącza PS/2 podczas pracy komputera, ponieważ jest to obarczone awarią nie tylko klawiatury lub myszy, ale także samej płyty głównej . Dobrze, jeśli płyta główna jest wyposażona w grupę bezpieczników do tego przypadku, w przeciwnym razie cały system może latać.

Takie chipy bezpiecznikowe mają bardzo małą wartość znamionową i łatwo się palą dzięki wyżej opisanym działaniom „przełączania”. Aby sprawdzić działanie bezpiecznika, możesz zadzwonić do niego konwencjonalnym testerem. Jeśli zawiedzie, to stosunkowo łatwo (i tanio) go wymienić, a odtąd nie podejmować ryzyka, włączając lub wyłączając zewnętrzne urządzenia peryferyjne, gdy komputer działa z portu PS/2. Warto również zauważyć, że nie wszystkie płyty główne są wyposażone w takie ochronne chipy, więc zwracanie uwagi na ten punkt przy zakupie wyraźnie nie jest dodatkowym krokiem.

Interfejs USB

Wśród innych złączy zewnętrznych szczególne miejsce zajmuje interfejs USB (Universal Serial Bus). Składa się z czterech linii: dwie są zarezerwowane na zasilanie, a druga na transmisję danych. W przeciwieństwie do wybrednego portu PS/2, urządzenia peryferyjne podłączone przez złącze USB można zmieniać, jak mówią, w podróży. Sam interfejs pojawił się dawno temu i zdołał pozyskać kilka modyfikacji i ulepszeń.

Możliwość podłączania i odłączania urządzeń ze złączem USB podczas pracy komputera osiągnięto dzięki specyficznej konstrukcji interfejsu. Główne styki zasilania są znacznie bliżej przecięcia złącza, w przeciwieństwie do bloku do transmisji danych. Oznacza to, że w momencie przełączania moc zaczyna płynąć jako pierwsza, a wyłączana jest jako ostatnia.

Za pośrednictwem interfejsu USB można podłączyć wiele urządzeń peryferyjnych: drukarki, smartfony, tablety, skanery, aparaty fotograficzne i wiele innych, a także zwykłą klawiaturę i mysz (pamiętaj o tym, jeśli spaliły się układy bezpieczników na PS/2 porty).

Nieco wcześniej do łączenia drukarek i skanerów, a jeszcze rzadziej, wykorzystywano szeregowe interfejsy COM. Dziś praktycznie nie są używane i można je znaleźć tylko na starych płytach głównych. Ale to najlepiej, bo podłączając tego typu sprzęt podczas pracy komputera, można było spalić zarówno drukarkę, jak i sam port.

Interfejsy PCI i PCI Express

Gniazda PCI i PCI Express są przeznaczone do kart rozszerzeń: kart sieciowych, komunikatorów, modemów, kart wideo itp. Wszystkie karty wideo są z reguły instalowane w interfejsie PCI Express ze względu na jego szybkość. Wcześniej złącze AGP było używane do pracy z akceleratorami graficznymi, ale jest przestarzałe i prawie niemożliwe jest zobaczenie go na nowoczesnych płytach głównych.

Warto również zauważyć, że z czasem mogą one słabnąć, zaburzając normalną pracę urządzenia. Tutaj jest tylko jedno szybkie „zabieganie” - wyciągnij urządzenie z rowków, przetrzyj styki roztworem zawierającym alkohol i włóż je z powrotem. Bardziej radykalną naprawą jest wymiana płyty głównej, ale jest to konieczne w wyjątkowych i niezwykle rzadkich przypadkach.

Należy również mieć świadomość, że przeszła kilka zmian w trakcie ulepszania, a w zależności od roku produkcji płyty głównej, złącza mogą różnić się wyglądem i pojemnością.

Moduły RAM

Obecnie można znaleźć kilka typów operacyjnych pamięci DDR3 i DDR4. Przestarzałe paski DDR1 praktycznie nie są używane, można je zobaczyć tylko na najstarszych płytach głównych.

Pamięć różni się od siebie częstotliwością pracy, rozmiarem, stykami i napięciem zasilania. Każdy indywidualny typ ma na dole określone wycięcie (klucz), które określa typ pamięci RAM. Niektóre płyty główne mogą obsługiwać jednocześnie dwa rodzaje wsporników, co jest bardzo wygodne w przypadku późniejszej aktualizacji.

Same złącza są wyposażone w specjalne zatrzaski do bezpiecznego mocowania na płycie. Listwy montuje się z pewną siłą, gdzie po udanym montażu będzie słyszalne charakterystyczne kliknięcie, co oznacza, że ​​moduł usiadł prawidłowo (lub złamałeś zatrzask naciskając go zbyt mocno).

Moduły RAM, oprócz przydatnych gigabajtów, zawierają małe chipy SPD odpowiedzialne za taktowanie, czyli opóźnienie danych dla tego typu pamięci RAM (pamięć o dostępie swobodnym). W BIOS-ie możesz niezależnie ustawić własne czasy lub pozostawić to w gestii samego paska. Podczas przetaktowywania pamięci RAM lub całego systemu jako całości (przetaktowywania) ustawiane jest najkrótsze możliwe opóźnienie.

Podobnie jak w przypadku slotów PCI, moduły RAM mogą zacząć działać niepoprawnie i w tym celu musisz wykonać tę samą procedurę opisaną w powyższym rozdziale i wszystko powinno działać tak, jak powinno.