FAQ   Szukaj   Użytkownicy   Grupy   Galerie   Rejestracja   Profil   Zaloguj się, by sprawdzić wiadomości   Zaloguj     
Super komputer

 
Napisz nowy temat   Odpowiedz do tematu    Forum pokojeppipsm.fora.pl ARCHIWUM- haku.ok1.pl Strona Główna :: Komputery
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
energy trance
Vip
Vip



Dołączył: 24 Lut 2006
Posty: 186
Przeczytał: 0 tematów

Skąd: amsterdam

PostWysłany: Pią 21:20, 07 Kwi 2006    Temat postu: Super komputer

Superkomputery: wszystko, czego nie wiesz, a o co bałeś się zapytać
PC World Komputer

Jaki jest najszybszy superkomputer na świecie? Czy mamy w Polsce bardzo wydajne maszyny? Czy na superkomputerze da się uruchomić Windows? Jaka jest moc obliczeniowa wielkich maszyn i do czego się je wykorzystuje? Czy każdy mógłby złożyć superkomputer? Z jakich procesorów się je buduje? Czy da się łatwo przeliczyć teraflopy na megaherce? Która firma dominuje na liście TOP 500, czyli najwydajniejszych superkomputerów na świecie? Spróbujemy odpowiedzieć na te wszystkie pytania, a przy okazji posłuchamy wypowiedzi specjalistów z warszawskiego ICM - tymi, którzy praktycznie każdego dnia mogą dotknąć najprawdziwszych superkomputerów.

W zeszłym tygodniu miała miejsce premiera kart graficznych opartych na chipsecie ATI Radeon X1900 ( patrz artykuł: "Radeon X1900 XTX podnosi poprzeczkę - [link widoczny dla zalogowanych]" ). Przedstawiciel firmy ATI, Chris Hook, powiedział nam wtedy - [link widoczny dla zalogowanych] co następuje: "...Ale żeby mieć wyobrażenie o wartości sprzętu [czyli karty opartej na nowym Radeonie - przyp. ŁB], posłużę się takim przykładem: prezentowany tu system z dwiema kartami CrossFire Radeon X1900, wyposażony w najlepsze podzespoły, kosztował sporo, bo około trzy tysiące euro. Jego całkowita moc obliczeniowa to 1,16 teraflopa. Tymczasem zaledwie 6 lat temu superkomputer DeepBlue o nieco mniejszej mocy obliczeniowej 1 teraflopa kosztował 50 milionów dolarów. ( ... ) Tak więc dużo pieniędzy dziś okazuje się być śmiesznie małą kwotą wobec cen za taką samą wydajność 6 lat temu."

Rzeczywiście, nie ma w tym ani odrobiny czczej przechwałki: superkomputery starzeją się dokładnie tak samo, jak typowe stacje robocze. Budowa dużego klastra obliczeniowego trwa przynajmniej kilka miesięcy - czyli akurat tyle, by na rynku pojawiła się kolejna generacja wydajniejszych procesorów. A jeśli plany przewidują, że centrum wystartuje w przeciągu 2-3 lat, jego konstruktorzy mogą mieć pewność, że użyte w nim podzespoły nie będą należały już do ścisłej czołówki pod względem wydajności. Superkomputer to jednak nie tylko procesor.

Charakterystyczny beczkowaty Cray - kształt komputera nie jest przypadkowy, twórcy maszyny po raz pierwszy natknęli się na granice wyznaczane przez stałe fizyczne


Superkomputer, klaster - co to jest?
Tak naprawdę trudno zdefiniować, którą maszynę należy nazwać "superkomputerem". Zależy to bowiem nie tylko od mocy obliczeniowej czy zajmowanej przez nią powierzchni, ale również od momentu, w którym jej się przyglądamy. Przeciętny pecet z procesorem AMD czy Intela taktowany zegarem 1 GHz byłby superkomputerem, gdyby przenieść go dwadzieścia lat wstecz.
Nie musimy nawet cofać się do czasów wypraw na Księżyc i wspominać ówczesnych maszyn, by zrozumieć, jak gwałtownie przybywa nam mocy obliczeniowej: otóż mniej więcej w połowie lat dziewięćdziesiątych Stany Zjednoczone rozpoczęły modernizację maszyn zawiadujących całym cywilnym lotniczym ruchem pasażerskim nad terytorium USA. Zakup nowych komputerów był niezbędny, gdyż te wtedy wykorzystywane przestawały sobie radzić z obróbką napływających danych. Oszacowano wtedy, że ich sumaryczna moc obliczeniowa była niższa niż zwykłego PC-ta z Pentium 100 ( patrz również inne doniesienia w tym tonie: "Superkomputer na żądanie - [link widoczny dla zalogowanych]" ). Tymczasem podczas wdrażania niecałe dwadzieścia lat wcześniej były to bajecznie drogie i niespotykanie wydajne maszyny...

Wracając zatem do superkomputerów: wydaje się, że jednym z rozsądniejszych kryteriów jest branie pod uwagę pochłanianej przez maszyny mocy. Choć granica nawet tutaj jest płynna, mówi się, że gdy do chłodzenia komputerów wymagane jest stworzenie osobnego, klimatyzowanego pomieszczenia, możemy mówić przynajmniej o zarodku superkomputera. Oczywiście tak wielka konsumpcja energii elektrycznej ma swoje negatywne skutki - amerykańska agencja AFCOM bije na alarm, że każdego roku centra obliczeniowe pochłaniają więcej i więcej mocy ( patrz artykuł: "Superkomputer czy liczydło? - [link widoczny dla zalogowanych]" ).

Wspomnieliśmy już jednak, że przedrostek "super-" nie bierze się wyłącznie z zastosowania bardzo wydajnych procesorów. Każda supermaszyna to innowacyjny, projektowany często od zera układ, chciałoby się powiedzieć: organizm. Można by rzec, że przypomina ona procesor RISC w dużo większej skali: mamy olbrzymią ilość jednostek obliczeniowych i trzeba je tak połączyć, by wszystkie dało się nakarmić optymalną ilością danych. Służą do tego specjalne magistrale łączące CPU, chipy przydzielające dostęp do pamięci czy zapewniające komunikację itd.
Infrastruktura zapewniająca procesorowi kontakt ze światem zewnętrznym ( w typowym pececie zwana chipsetem ) wpływa na spowolnienie operacji wykonywanych przez CPU, ale jest absolutnie niezbędna. A przynajmniej tak się wydawało, póki Cisco - firma znana z produkcji urządzeń sieciowych - nie wystąpiła z koncepcją spinania w sieci nie wielkich maszyn, lecz - procesorów ( patrz artykuł: "Sieci łączące... procesory? - [link widoczny dla zalogowanych]" )!

Super- czy hiperkomputery rzadko pracują w pojedynkę. Zwykle spina się je w wielkie układy połączone sieciami o olbrzymich przepustowościach ( np. Ethernet 1 Gbit czy Infiniband ), które tworzą klastry. Klaster jest samodzielną jednostką, której można przypisać określone zadanie obliczeniowe albo który można wirtualnie podzielić w celu równoległego zajmowania się więcej niż jedną złożoną kalkulacją.

Do czego służą superkomputery?
Najprostsza odpowiedź brzmi: do wszystkiego. Z wykorzystaniem olbrzymiej mocy obliczeniowej możliwe jest zaoszczędzenie na budowie bomb atomowych/termojądrowych/neutronowych - pisze się po prostu odpowiednie oprogramowanie, które symuluje wybuch, a następnie obserwuje się jego działanie ( patrz również: "Komputerowa symulacja eksplozji nuklearnej - [link widoczny dla zalogowanych]" ).

To jednak nie koniec: wydajne centrum obliczeniowe potrzebne jest praktycznie w każdym ośrodku naukowym czy korporacji, której celem jest nie tylko naśladowanie lepszych wzorców, ale także szybkie parcie do przodu i wprowadzanie na rynek kolejnych rozwiązań. Superkomputery stosuje się w badaniach modeli samochodów ( patrz artykuł: "Superkomputer dla Toyoty - [link widoczny dla zalogowanych]" ), do badania symulacji złożonych białek czy DNA ( patrz artykuł: "IBM kontra szalone krowy - [link widoczny dla zalogowanych]" ), do przetwarzania danych zebranych podczas nasłuchu Kosmosu ( patrz artykuł: "Astronomiczny superkomputer - [link widoczny dla zalogowanych]" ), wygrywania z człowiekiem w szachy ( patrz artykuł: "Człowiek versus klaster - kolejny szachowy pojedynek - [link widoczny dla zalogowanych]" ) czy prac nad efektami specjalnymi w holywoodzkich produkcjach. Zgodnie z zasadą "do odważnych świat należy" Szwajcaria wraz z IBM zaplanowała uruchomienie komputera na tyle potężnego, by zdołał symulować pracę ludzkiego mózgu - Blue Brain - [link widoczny dla zalogowanych] to 23 teraflopy mocy obliczeniowej w czystej formie.
Wymieniliśmy zaledwie ułamek zastosowań, a tymczasem rozwój superkomputerów przebiega w rozmaitych kierunkach. Obecnie coraz częściej mówi się o potrzebie miniaturyzacji i "okrojenia" wydajnych maszyn obliczeniowych ( patrz artykuł: "Masz superkomputer? Płać superrachunek! - [link widoczny dla zalogowanych]" ).

Już w latach dziewięćdziesiątych w branży pojawił się kryzys, bo mało kogo było stać na zakup kolejnych drogich maszyn. W ten sposób zniknęła z rynku firma konstruująca sprzęt "Thinking Machines", dostało się również Crayowi, marce "od zawsze" związanej z komputerami o wysokiej mocy przetwarzania. W kłopoty finansowe wpadł nawet potentat na rynku szybkości: Silicon Graphics. W wydajnych maszynach coraz częściej zaczęły się pojawiać standardowe procesory PowerPC ( IBM ) albo x86 ( reszta świata, IBM ). Za przełomowy uznano moment, gdy SGI zaprezentowało maszyny pracujące pod kontrolą Itanium Intela...

Superkomputery trafiły pod strzechy. Stało się tak również za sprawą *niksów i, kto by pomyślał, Linuksa ( patrz również artykuł: "Superkomputer spod znaku pingwina - [link widoczny dla zalogowanych]" ). Microsoft z serwerowymi systemami Windows dla centrów obliczeniowych tak naprawdę dopiero teraz rozpoczął ofensywę. Na razie jednak olbrzymia większość maszyn z listy TOP 500 pracuje pod kontrolą systemu spod znaku pingwina ( patrz artykuł: "Zbuduj superkomputer w domu - [link widoczny dla zalogowanych]" ).
Nie należy wszak zapominać, że dystans między ośrodkami małymi i dużymi ciągle się utrzymuje. Tylko największe uniwersytety albo organizacje rządowe stać na wyposażenie się w superkomputery - czasami wręcz niezbędny jest mariaż kilku państw, by udało się uruchomienie dużego projektu. Na przykład mniej więcej rok temu wystartował hiperklaster sieciowy, w którego skład wchodzą maszyny rozsiane w całej Europie ( patrz artykuł: "Europejski superkomputer sieciowy - [link widoczny dla zalogowanych]" ).

Polskie superkomputery
Ostatni raz polski superkomputer trafił na listę TOP 500 w 2003 roku - była to maszyneria należąca do Politechniki Gdańskiej. Klaster składał się ze 128 serwerów Optimusa, każdy z dwoma procesorami Intel Itanium 2 1,3 GHz oraz 2 GB pamięci RAM. Poszczególne serwery połączono gigabitowym Ethernetem ( patrz również artykuł: "Superkomputer w Polsce - [link widoczny dla zalogowanych]" ).

Zupełnie niedawno superkomputer na PG został zmodernizowany. W teście HPlinpack - używanym do benchmarkowania wydajnych maszyn - uzyskał wynik 1,117 teraflopa. Warto zwrócić uwagę, że to mniej niż wspominany na początku komputer z kartami ATI na pokładzie! ( patrz artykuł: "Najszybszy polski superkomputer? - [link widoczny dla zalogowanych]" ).

Z innych ośrodków na pewno należy wymienić znane Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego ( ICM ) Uniwersytetu Warszawskiego ( które zakupiło w 2003 roku - [link widoczny dla zalogowanych] komputer Cray X1 ) czy Uniwersytet Jagielloński. Praktycznie każda większa uczelnia może się poszczycić bardzo wydajnym zespołem obliczeniowym. Krążą również pogłoski, że w sieci Era obsługą połączeń zajmują się maszyny IBM Deep Blue.

Zgodnie z informacjami podanymi na stronie Klastry w Polsce - [link widoczny dla zalogowanych] nasze TOP 5 to maszyny rozlokowane następująco:

1. 288 x Itanium 2 1.3GHz / 1.4GHz - Centrum Informatyczne TASK ( Gdańsk )
2. 248 x Intel Itanium2 1,4GHz - Poznańskie Centrum Superkomputerowo-Sieciowe ( Poznań ).
3. 196 x Opteron 246 + 48 Opteron 2.2GHz Dual Core - ICM ( Warszawa ).
4. 180 x Opteron 250 - ICM ( Warszawa ).
5. 100 x Opteron 2GHz ( Comparex ) - Wydział Chemii UW ( Warszawa ).
.
Mieliśmy szansę porozmawiać o superkomputerach z pracownikami warszawskiego ICM-u - i była to naprawdę interesująca wyprawa w przyszłość i przeszłość maszyn o olbrzymich wydajnościach...

A co na świecie?
Najwydajniejsze superkomputery na świecie zbierane są na liście TOP 500. Niestety, polskie maszyny pojawiły się na niej tylko na chwilę - nasz najwydajniejszy klaster nie zdołałby się załapać nawet do pierwszego tysiąca, choć w pierwszych 10 tysiącach mielibyśmy już przynajmniej dwie-trzy maszyny.

Listę otwiera IBM. Pierwsza trójka to 2 maszyny Blue Gene oraz pServer. Na czwartym miejscu znalazł się SGI Altix, na piątym - Dell Thunderbird. Wszystkie klastry ( bo nie są to pojedyncze maszyny ) znajdują się w Stanach Zjednoczonych:

1. IBM BlueGene/L - moc szczytowa: 367 teraflopów.
2. IBM eServer Blue Gene Solution - 114,7 teraflopów.
3. IBM eServer pSeries - 77,8 teraflopów.
4. SGI Altix 1.5 GHz - 60,96 teraflopów.
5. Dell PowerEdge 1850 - 64,5 teraflopów.

Prymat IBM-a ( patrz np. artykuł: "IBM uderza sam w siebie - [link widoczny dla zalogowanych]" ) i Stanów Zjednocznych w dziedzinie wydajnych maszyn jest bardzo widoczny. Na przykład Japonii przeszkadzał on tak bardzo, że zapowiedziała, iż do 2011 roku uruchomi superkomputer, który przebije wydajnością wszystkie stworzone w USA maszyny. I nie tylko te: Japończycy planują uruchomienie hiperkomputera, który pod względem mocy obliczeniowej przewyższy wszystkie maszyny z listy TOP 500 razem wzięte ( patrz artykuł: "Japonia potęgą obliczeniową? - [link widoczny dla zalogowanych]" )!

Takie podejście nie powinno dziwić. Choć wydajne maszyny stają się coraz popularniejsze, tylko kraje będące potęgami obliczeniowymi są w stanie utrzymać się w czołówce pod względem rozwoju. Bez wydajnych klastrów nie ma bowiem nowoczesnych lekarstw, oszczędnych samochodów, symulowania zjawisk pogodowych, przewidywania trzęsień ziemi czy... budowania potężnych bomb.

Komentarze


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
Wyświetl posty z ostatnich:   
Napisz nowy temat   Odpowiedz do tematu    Forum pokojeppipsm.fora.pl ARCHIWUM- haku.ok1.pl Strona Główna :: Komputery Wszystkie czasy w strefie EET (Europa)
Strona 1 z 1

 
Skocz do:  
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach


fora.pl - załóż własne forum dyskusyjne za darmo
     pokojeppipsm.fora.pl ARCHIWUM- haku.ok1.pl: Forum przeniesione na www.haku.ok1.pl     
Powered by phpBB © 2001, 2002 phpBB Group   c3s Theme © Zarron Media
Regulamin