Реферат: Архитектура современных суперЭВМ

МОСКОВСКИЙИНЖЕНЕРНО-ФИЗИЧЕСКИЙ

ИНСТИТУТ

(ТЕХНИЧЕСКИЙУНИЕРСИТЕТ)


Студентки группы.


1998 г.


АрхитектурасовременныхсуперЭВМ


Диалектическаяспираль развитиякомпьютерныхтехнологийсовершила свойочередной виток- опять, как идесять летназад, в соответствии с требованиямижизни, в модувходят суперкомпьютерныеархитектуры.Безусловно, это уже не темонстры, которыепомнят ветераны- новые технологиии требовательныйрынок коммерческихпримененийсущественноизменили обликсовременногосуперкомпьютера, Теперь это неогромные шкафыс уникальнойаппаратурой, вокруг которойколдуют шаманыот информатики, а вполне эргономичныесистемы сунифицированнымпрограммнымобеспечением, совместимыесо своими младшимисобратьями.

Чтотакое суперЭВМ? Компьютерыс производительностьюсвыше 10 000 млн.теоретическихопераций в сек.(MTOPS), согласноопределениюГосдепартаментаСША, считаютсясуперкомпьютерами.

Следуетотметить идругие основныепризнаки, характеризующиесуперЭВМ, средикоторых кромевысокой производительности:

• самыйсовременныйтехнологическийуровень (например,GaAs-технология);

• специфическиеархитектурныерешения, направленныена повышениебыстродей- ствия (например, наличие операцийнад векторами);

• цена, обычно свыше1-2 млн. долл.

Вместес тем, существуюткомпьютеры, имеющие всеперечисленныевыше характеристикисуперЭВМ, заисключениемцены, котораядля них составляетот несколькихсотен до 2 млн.долларов. Речьидет о мини-суперЭВМ, обладающимвысокойпроизводительностью, уступающей, однако, большимсуперЭВМ. Приэтом у минисуперкомпьютеров, как правило, заметно лучшесоотношениецена/производительностьи существеннониже эксплуатационныерасходы: системаохлаждения, электропитания, требованияк площади помещенияи др. С точкизрения архитектурыминисуперкомпьютерыне представляютсобой некотороеособенноенаправление, поэтому в дальнейшемони отдельноне рассматриваются.


Сферыприменениясуперкомпьютеров


Длякаких примененийнужна стольдорогостоящаятехника? Можетпоказаться, что с ростомпроизводительностинастольныхПК и рабочихстанций, а такжесерверов, самапотребностьв суперЭВМбудет снижаться.Это не так. Содной стороны, целый ряд приложенийможет теперьуспешно выполнятьсяна рабочихстанциях, нос другой стороны, время показало, что устойчивойтенденциейявляется появлениевсе новых приложений, для которыхнеобходимоиспользоватьсуперЭВМ.

Преждевсего следуетуказать напроцесс проникновениясуперЭВМ всовершеннонедоступнуюдля них ранеекоммерческуюсферу. Речьидет не толькоскажем, о графическихприложенияхдля кино ителевидения, где требуетсявсе та же высокаяпроизводительностьна операцияхс плавающейзапятой, а преждевсего о задачах, предполагающихинтенсивную(в том числе, иоперативную)обработкутранзакцийдля сверхбольшихБД. В этот классзадач можноотнести такжесистемы поддержкипринятия решенийи организацияинформационныхскладов. Конечно, можно сказать, что для работыс подобнымиприложениямив первую очередьнеобходимывысокая производительностьввода-выводаи быстродействиепри выполнениицелочисленныхопераций, акомпьютерныесистемы, наиболееоптимальныедля таких приложений, например, MPP-системыHimalaya компанииTandem, SMP-компьютерыSGI CHAL ENGE, AlphaServer 8400 от DEC — этоне совсем суперЭВМ.Но следуетвспомнить, чтотакие требованиявозникают, вчастности, состороны рядаприложенийядерной физики, например, приобработкерезультатовэкспериментовна ускорителяхэлементарныхчастиц. А ведьядерная физика- классическаяобласть применениясуперЭВМ содня их возникновения.

Какбы то ни было, наметиласьявная тенденцияк сближениюпонятий «мэйнфрейм»,«многопроцессорныйсервер» и «суперЭВМ».Нелишне заметить, что это происходитна фоне начавшегосяво многих областяхмассированногоперехода кцентрализациии укрупнениюв противоположностьпроцессуразукрупненияидецентрализации.

Традиционнойсферой применениясуперкомпьютероввсегда былинаучные исследования: физика плазмыи статистическаямеханика, физикаконденсированныхсред, молекулярнаяи атомная физика, теория элементарныхчастиц, газоваядинамика итеория турбулентности, астрофизика.В химии — различныеобласти вычислительнойхимии: квантоваяхимия (включаярасчеты электроннойструктуры дляцелей конструированияновых материалов, например, катализаторови сверхпроводников), молекулярнаядинамика, химическаякинетика, теорияповерхностныхявлений и химиятвердоготела, конструированиелекарств.Естественно, что ряд областейприменениянаходится настыках соответствующихнаук, например, химии и биологии, и перекрываетсяс техническимиприложениями.Так, задачиметеорологии, изучение атмосферныхявлений и, впервую очередь, задача долгосрочногопрогноза погоды, для решениякоторой постоянноне хватаетмощностейсовременныхсуперЭВМ, тесносвязаны с решениемряда перечисленныхвыше проблемфизики. Средитехническихпроблем, длярешения которыхиспользуютсясуперкомпьютеры, укажем на задачиаэрокосмическойи автомобильнойпромышленности, ядерной энергетики, предсказанияи разработкиместорожденийполезных ископаемых, нефтедобывающейи газовойпромышленности(в том числепроблемы эффективнойэксплуатацииместорождений, особенно трехмерныезадачи ихисследования), и, наконец, конструированиеновых микропроцессорови компьютеров, в первую очередьсамих суперЭВМ.

Суперкомпьютерытрадиционноприменяютсядля военныхцелей. Кромеочевидных задачразработкиоружия массовогоуничтоженияи конструированиясамолетов иракет, можноупомянуть, например, конструированиебесшумныхподводных лодоки др. Самыйзнаменитыйпример — этоамериканскаяпрограмма СОИ.Уже упоминавшийсяMPP-компьютерМинистерстваэнергетикиСША будет применятьсядля моделированияядерного оружия, что позволитвообще отменитьядерные испытанияв этой стране.

Анализируяпотенциальныепотребностив суперЭВМсуществующихсегодня приложений, можно условноразбить их надва класса. Кпервому можноотнести приложения, в которых известно, какой уровеньпроизводительностинадо достигнутьв каждом конкретномслучае, например, долгосрочныйпрогноз погоды.Ко второмуможно отнестизадачи, длякоторых характеренбыстрый роствычислительныхзатрат с увеличениемразмера исследуемогообъекта. Например, в квантовойхимии неэмпирическиерасчеты электроннойструктурымолекул требуютзатрат вычислительныхресурсов, пропорциональныхN^4 или И^5, где N условнохарактеризуетразмер молекулы.Сейчас многиемолекулярныесистемы вынужденноисследуютсяв упрощенноммодельномпредставлении.Имея в резервееще более крупныемолекулярныеобразования(биологическиесистемы, кластерыи т.д.), квантоваяхимия даетпример приложения, являющегося«потенциальнобесконечным»пользователемсуперкомпьютерныхресурсов.

Естьеще одна проблемаприменениясуперЭВМ, окоторой необходимосказать — этовизуализацияданных, полученныхв результатевыполнениярасчетов. Часто, например, прирешении дифференциальныхуравненийметодом сеток, приходитсясталкиватьсяс гигантскимиобъемами результатов, которые в числовойформе человекпросто не всостоянииобработать.Здесь во многихслучаях необходимообратитьсяк графическойформе представленияинформации.В любом случаевозникаетзадача транспортировкиинформациипо компьютернойсети. Решениюэтого комплексапроблем в последнеевремя уделяетсявсе большеевнимание. Вчастности, знаменитыйНациональныйцентр суперкомпьютерныхприложенийСША (NCSA) совместнос компаниейSilicon Graphics ведет работыпо программе«суперкомпьютерногоокружениябудущего». Вэтом проектепредполагаетсяинтегрироватьвозможностисуперкомпьютеровPOWER CHALLENGE и средстввизуализациикомпании SGI сосредствамиинформационнойсупермагистрали.


АрхитектурасовременныхсуперЭВМ


ПриведемклассическуюсистематикуФлинна.

Всоответствиис ней, все компьютерыделятся начетыре классав зависимостиот числа потоковкоманд и данных.К первому классу(последовательныекомпьютерыфон Неймана)принадлежатобычные скалярныеоднопроцессорныесистемы: одиночныйпоток команд- одиночныйпоток данных(SISD). Персональныйкомпьютер имеетархитектуруSISD, причем неважно, используютсяли в ПК конвейерыдля ускорениявыполненияопераций.

Второйкласс характеризуетсяналичием одиночногопотока команд, но множественногоnomoka данных (SIMD). Кэтому архитектурномуклассу принадлежатоднопроцессорныевекторные или, точнее говоря, векторно-конвейерныесуперкомпьютеры, например, Cray-1. Вэтом случаемы имеем делос одним потоком(векторных)команд, а потоковданных — много: каждый элементвектора входитв отдельныйпоток данных.К этому же классувычислительныхсистем относятсяматричныепроцессоры, например, знаменитыйв свое время

ILLIAC-IV.Они также имеютвекторныекоманды и реализуютвекторнуюобработку, ноне посредствомконвейеров, как в векторныхсуперкомпьютерах, а с помощьюматриц процессоров.

Ктретьему классу- MIMD — относятсясистемы, имеющиемножественныйпоток команди множественныйпоток данных.К нему принадлежатне толькомногопроцессорныевекторныесуперЭВМ, нои вообще всемногопроцессорныекомпьютеры.ПодавляющеебольшинствосовременныхсуперЭВМ имеютархитектуруMIMD.

Четвертыйкласс в систематикеФлинна, MISD, непредставляетпрактическогоинтереса, покрайней мередля анализируемыхнами компьютеров.В последнеевремя в литературечасто используетсятакже терминSPMD (одна программа- множественныеданные). Он относитсяне к архитектурекомпьютеров, а к моделираспараллеливанияпрограмм и неявляется расширениемсистематикиФлинна. SPMD обычноотносится кMPP (т.е. MIMD) — системами означает, чтонесколько копийодной программыпараллельновыполняютсяв разных процессорныхузлах с разнымиданными.


Векторныесуперкомпьютеры[SIMD]


СредисовременныхсуперЭВМ этуархитектуруимеют однопроцессорныевекторныесуперкомпьютеры.Типичная схемаоднопроцессорноговекторногосуперкомпьютерапредставленана примереFACOM VP-200 японскойфирмы Fujitsu. Похожуюархитектуруимеют и другиевекторныесуперкомпьютеры, например, фирмCray Research и Convex. Общимдля всех векторныхсуперкомпьютеровявляется наличиев системе командвекторныхопераций, например, сложение векторов, допускающихработу с векторамиопределеннойдлины, допустим,64 элемента по8 байт. В такихкомпьютерахоперации свекторамиобычно выполняютсянад векторнымирегистрами, что, однако, совсем не являетсяобязательным.Наличие регистровмаски позволяетвыполнятьвекторныекоманды не надвсеми элементамивекторов, атолько надтеми, на которыеуказываетмаска.

Современ Cray-1 многиевекторныесуперкомпьютеры, в том числе ЭВМсерии VP от Fujitsu исерии S компанииHitachi, имеют важноесредство ускорениявекторныхвычислений, называемоезацеплениекоманд. Рассмотрим, например, следующуюпоследовательностькоманд, работающихс векторнымиV-регистрамив компьютерахCray:


V2=V0*V1

V4=V2+V3


Ясно, что втораякоманда неможет начатьвыполнятьсясразу вследза первой — дляэтого перваякоманда должнасформироватьрегистр V2, чтотребует определенногоколичестватактов. Средствозацепленияпозволяет, темне менее, второйкоманде начатьвыполнение, не дожидаясьполного завершенияпервой: одновременнос появлениемпервого результатав регистре V2его копиянаправляетсяв функциональноеустройствосложения, изапускаетсявторая команда.Разумеется, детали возможностейзацепленияразных векторныхкоманд отличаютсяу разных ЭВМ.

Чтокасается скалярнойобработки, тосоответствующаяподсистемакоманд в японскихсуперкомпьютерахFujitsu и Hitachi совместимас IBM/370, что имееточевидныепреимущества.При этом длябуферизациискалярныхданных используетсятрадиционнаякэш-память.Напротив, компанияCray Research, начиная сСгау-1, отказаласьот применениякэш-памяти.Вместо этогов ее компьютерахиспользуютсяспециальныепрограммно-адресуемыебуферные В- иТ-регистры. Илишь в последнейсерии, Cray T90, былавведена промежуточнаякэш-память дляскалярныхопераций. Отметим, что на трактеоперативнаяпамять — векторныерегистрыпромежуточнаябуферная памятьотсутствует, что вызываетнеобходимостьиметь высокуюпропускнуюспособностьподсистемыоперативнойпамяти: чтобыподдерживатьвысокую скоростьвычислений, необходимобыстро загружатьданные в векторныерегистры изаписыватьрезультатыобратно в память.Но некоторыевекторныесуперЭВМ, например,IBM ES/9000, работаютс операндами-векторами, расположенныминепосредственнов оперативнойпамяти. Скореевсего, такойподход являетсяменее перспективнымс точки зренияпроизводительности, в частности, потому, что дляподдержаниявысокого темпавычисленийдля каждойвекторнойкоманды требуетсябыстрая выборкавекторныхоперандов изпамяти и записьрезультатовобратно.


Многопроцессорныевекторныесуперкомпьютеры(MIMD)


Вархитектуремногопроцессорныхвекторныхкомпьютеровможно отметитьдве важнейшиехарактеристики: симметричность(равноправность)всех процессоровсистемы и разделениевсеми процессорамиобщего поляоперативнойпамяти. Подобныекомпьютерныесистемы называютсясильно связанными.Если в однопроцессорныхвекторных ЭВМдля созданияэффективнойпрограммы еенадо векторизовать, то в многопроцессорныхпоявляетсязадача распараллеливанияпрограммы дляее выполненияодновременнона несколькихпроцессорах.

Задачараспараллеливанияявляется, пожалуй, более сложной, посколькув ней необходимоорганизоватьсинхронизациюпараллельновыполняющихсяпроцессов.Практика показалавозможностиэффективногораспараллеливаниябольшого числаалгоритмовдля рассматриваемыхсильно связанныхсистем. Соответствующийподход к распараллеливаниюна таких компьютерахназываетсяиногда модельюразделяемойобщей памяти.

ПроизводительностьнекоторыхсовременныхмикропроцессоровRISC-архитектурыстала сопоставимойс производительностьюпроцессороввекторныхкомпьютеров.Как следствиеэтого, появилисьиспользующиеэти достижениясуперЭВМ новойархитектуры,- сильно связанныекомпьютерыкласса MIMD, представляющиесобой симметричныемногопроцессорныесерверы с общимполем оперативнойпамяти. В модуляхпамяти обычноиспользуетсятехнологияDRAM, что позволяетдостигнутьбольших объемовпамяти приотносительнонизкой цене.Однако скоростьобмена даннымимежду процессорамии памятью втаких серверахво много разниже, чем пропускнаяспособностьаналогичноготракта в векторныхсуперЭВМ, гдеоперативнаяпамять строитсяна более дорогойтехнологииЯВАМ. В этомсостоит одноиз основныхотличий в подходахк суперкомпьютернымвычислениям, применяемымдля многопроцессорныхвекторных ЭВМи SMP-серверов.В первых обычноимеется относительнонебольшое числовекторныхрегистров, поэтому, какуже отмечалось, для поддержаниявысокой производительностинеобходимобыстро загружатьв них данныеили, наоборот, записыватьиз них информациюв оперативнуюпамять. Такимобразом, требуетсявысокая производительностьтракта процессор-память.

Кластерыявляются самымдешевым способомнаращиванияпроизводительностиуже инсталлированныхкомпьютеров.Фактическикластер представляетсобой набориз несколькихЭВМ, соединенныхчерез некоторуюкоммуникационнуюинфраструктуру.В качестветакой структурыможет выступатьобычная компьютернаясеть, однакоиз соображенийповышенияпроизводительностижелательноиметь высокоскоростныесоединения(FDDI/ATM/HiPPI и т.п.). Кластерымогут бытьобразованыкак из различныхкомпьютеров(гетперогенныекластеры), таки из одинаковых(гомогенныекластеры). Очевидно, что все такиесистемы относятсяк классу MIMD. Кластерыявляются классическимпримером слабосвязанныхсистем. В кластерныхсистемах дляорганизациивзаимодействиямежду процессами, выполняющимисяна разных компьютерахпри решенииодной задачи, применяютсяразличныемодели обменасообщениями(PVM, MPI и т.п.). Однакозадача распараллеливанияв таких системахс распределенноймежду отдельнымикомпьютерамипамятью в рамкахэтих моделейявляется гораздоболее сложной, чем в моделиобщего поляпамяти, какнапример, вSMP-серверах. Кэтому следуетдобавить чистоаппаратныепроблемы наличиязадержек приобменах сообщениямии повышенияскорости передачиданных. Поэтомуспектр задач, которые могутэффективнорешаться накластерныхсистемах, посравнению ссимметричнымисильно связаннымисистемамидостаточноограничен. Дляпараллельнойобработкизапросов кбазам данныхв подобныхсистемах такжеимеются своисобственныеподходы.

Вкластеры могутобъединятьсяразличныесуперкомпьютеры.Возможностьналичия большогочисла процессорныхузлов в SP2 позволяетодновременноотнести этоткомпьютер ик классуMpp-систем.MPP-системыпринадлежатк классу MIMD. Еслиговорить обMPP-компьютерахс распределеннойпамятью и отвлечьсяот организацииввода-вывода, то эта архитектураявляется естественнымрасширениемкластернойна большоечисло узлов.Поэтому длятаких системхарактернывсе преимуществаи недостаткикластеров.

Благодарямасштабируемости, именно MPP-системыявляются сегоднялидерами подостигнутойпроизводительностикомпьютера; наиболее яркийпример этому- Intel Paragon. С другойстороны, проблемыраспараллеливанияв MPP-системахпо сравнениюс кластерами, содержащиминемного процессоров, становятсяеще более трудноразрешимыми.Кроме того, приращениепроизводительностис ростом числапроцессоровобычно вообщедовольно быстроубывает. ЛегконараститьтеоретическуюпроизводительностьЭВМ, но гораздотруднее найтизадачи, которыесумели бы эффективнозагрузитьпроцессорныеузлы.

Сегодняне так уж многоприложениймогут эффективновыполнятьсяна Mpp-компьютере, кроме этогоимеется ещепроблемапереносимостипрограмм междуMpp-системами, имеющими различнуюархитектуру.Предпринятаяв последниегоды попыткастандартизациимоделей обменасообщениямиеще не снимаетвсех проблем.Эффективностьраспараллеливанияво многих случаяхсильно зависитот деталейархитектурыMpp-системы, напримертопологиисоединенияпроцессорныхузлов.

Самойэффективнойбыла бы топология, в которой любойузел мог бынапрямую связатьсяс любым другимузлом. Однаков MPP-системахэто техническитрудно реализуемо.Обычно процессорныеузлы в современныхMPP-компьютерахобразуют илидвумернуюрешетку (например, в SNI/Pyramid RM1000) или гиперкуб(как в суперкомпьютерахnCube [18]).

Посколькудля синхронизациипараллельновыполняющихсяв узлах процессовнеобходим обменсообщениями, которые должныдоходить излюбого узласистемы в любойдругой узел, важной характеристикойявляется диаметрсистемы с1 — максимальноерасстояниемежду узлами.В случае двухмернойрешетки d ~ sqrt(n), вслучае гиперкубаd ~ 1n(n). Таким образом, при увеличениичисла узловархитектурагиперкубаявляется болеевыгодной.

Времяпередачи информацииот узла к узлузависит отстартовойзадержки искорости передачи.В любом случаеза время передачипроцессорныеузлы успеваютвыполнить многокоманд, и этосоотношениебыстродействияпроцессорныхузлов и передающейсистемы, вероятно, будет сохраняться- прогресс впроизводительностипроцессоровгораздо больше, чем в пропускнойспособностиканалов связи.Поэтому инфраструктураканалов связиявляется одногоиз главныхкомпонентовMpp-компьютера.

Несмотряна все сложности, сфера примененияMPP-компьютеровпонемногурасширяется.РазличныеMPP-системы эксплуатируютсяво многих ведущихсуперкомпьютерныхцентрах мира, что наглядноследует изсписка ТОР500.Кроме ужеупоминавшихся, следует особенноотметить компьютерыCray T3D и Cray ТЗЕ, которыеиллюстрируюттот факт, чтомировой лидерпроизводствавекторныхсуперЭВМ, компанияCray Research, уже не ориентируетсяисключительнона векторныесистемы. Наконец, нельзя не вспомнить, что новейшийсуперкомпьютерныйпроект министерстваэнергетикиСША будет основанна MPP-системена базе Pentium Pro [10].


Заключение


Сегодняв суперкомпьютерноммире наблюдаетсяновая волна, вызванная какуспехами вобласти микропроцессорныхтехнологий, так и появлениемнового кругазадач, выходящихза рамки традиционныхнаучно-исследовательскихлабораторий.Налицо быстрыйпрогресс впроизводительностимикропроцессоровRISC-архитектуры, которая растетзаметно быстрее, чем производительностьвекторныхпроцессоров.Например, микропроцессорHP РА-8000 отстаетот Cray T90 всего примернов два раза. Врезультатев ближайшеевремя вероятнодальнейшеевытеснениевекторныхсуперЭВМкомпьютерами, использующимиRISC-микропроцессоры, такими, как, например, IBM SP2,Convex/HP SPP, DEC AlphaServer 8400, SGI POWER CHALENGE.Подтверждениемэтого сталирезультатырейтинга ТОР500, где лидерамипо числу инсталляцийстали системыPOWER CHALLENGE и SP2, опережающиемодели ведущегопроизводителясуперкомпьютеров- компании CrayResearch.


Литература


[1] ComputerWorldРоссия, # 9, 1995.

[2] К.Вильсон, в сб. «Высокоскоростныевычисления».М. Радио и Связь,1988, сс.12-48.

[3]. Б.А.Головкин,«Параллельныевычислительныесистемы». М…Наука, 1980, 519 с.

[4] Р.Хокни, К.Джессхоуп,«ПараллельныеЭВМ. М… Радиои Связь, 1986, 390 с.

[5] Flynn И.,7.,IEEE Trans. Comput., 1972, о.С-21, N9, рр.948-960.

[6] Russel К.М.,Commun. АСМ, 1978, v. 21, # 1, рр.63-72.

[7] Т.Мотоока, С.Томита, Х.Танака, Т. Сайто, Т.Уэхара,»Компьютерына СБИС", m.l. М. Мир,1988, 388 с.

[8] М.Кузьминский, ПроцессорРА-8000. Открытыесистемы, # 5, 1995.

[9] Открытыесистемы сегодня,# 11, 1995.

[10] ComputerWorldРоссия, ## 4, 6, 1995.

[11] ComputerWorldРоссия, # 8, 1995.

[12] Открытыесистемы сегодня,# 9, 1995.

[13] ComputerWorldРоссия, # 2, 1995.

[14] ComputerWorldРоссия, # 12, 1995.

[15] В.Шнитман, СистемыExemplar SPP1200. Открытыесистемы, # 6, 1995.

[16] М.Борисов, UNIX-кластеры.Открытые системы,# 2, 1995,

cc.22-28.

[17] В. Шмидт, Системы IBM SP2. Открытыесистемы, # 6, 1995.

[18] Н.Дубова, СуперкомпьютерыnCube. Открытыесистемы, # 2, 1995, сс.42-47.

[19]Д. Французов, Тест оценкипроизводительностисуперкомпьютеров.Открытые системы,# 6, 1995.

[20] Д.Волков, Какоценить рабочуюстанцию. Открытыесистемы, # 2, 1994, с.44-48.

[21] А.Волков, ТестыТРС. СУБД, # 2, 1995, сс.70-78.

еще рефераты
Еще работы по информатике