"Все мы являемся свидетелями того, как Россия буквально за последние три-четыре года становится одной из ведущих суперкомпьютерных держав в мире", — заявил, в частности, Александр Тихонравов, директор Научно-исследовательского вычислительного центра МГУ.
По словам Тихонравова, лет пять назад в России фактически не было ничего, в то время как сейчас количество «активнейших пользователей» суперкомпьютерных мощностей в России идёт на тысячи. И если раньше выражались сомнения в том, что в России кому-то могут всерьёз понадобиться эти мощности, то стоило таким возможностям появиться, как они тотчас оказались широко востребованы.
В дальнейшем, когда дело дошло до конкретных цифр, было заявлено, что сейчас у одного только суперкомпьютерного комплекса МГУ насчитываются 452 пользователя, из них лишь 313 — из МГУ.
Алексей Солдатов, проректор МГУ, занимающийся информационными технологиями, в ходе своего выступления посетовал, что научное сообщество ещё не научилось «доносить полученные результаты до промышленности» так, чтобы «не только мы знали, что мы это умеем, но и промышленность знала, что мы это умеем, а самое главное — чтобы промышленность знала, что ей это нужно».
Членкор РАН РФ Владимир Воеводин представил новую, 14-ю редакцию Top50 — пяти десятков мощнейших суперкомпьютеров, установленных в российских учреждениях.
Как пояснил Воеводин, использовалась та же самая методика учёта, которую применяют при составлении международного рейтинга Top500. Российский список Тоp50 организован и ведётся Межведомственным суперкомпьютерным центром совместно с НИВЦ МГУ, а информацию предоставляли либо компании, устанавливавшие суперкомпьютеры у заказчиков, либо сами держатели суперкомпьютеров. "Ну, и мы имеем возможность брать те данные, которые уже представлены в Top500, — отметил Воеводин.
По словам докладчика, с прошлого выпуска рейтинга произошли некоторые существенные изменения: например, уже три системы в списке имеют производительность более 100 терафлопсов, а в целом изменения затронули 23 позиции. «Это один из самых высоких показателей за всё время проведения нашего рейтинга Top50», — заявил Воеводин.
Порог вхождения сейчас составляет 3,7 терафлопса, и больше 30 систем имеют производительность больше 10 терафлопсов. С последней редакцией рейтинга можно ознакомиться здесь. Как и следовало ожидать, первым номером идёт суперкомпьютер «Ломоносов», построенный «Т-Платформами» с пиковой мощностью 510 терафлопсов и 397 терафлопсами по Linpack. На втором — суперкомпьютер РНЦ Курчатовского института (пиковая мощность — 123 терафлопса, по Linpack — 101 терафлопс, построен Hewlett-Packard), на третьем — компьютер РСК СКИФ, установленный в Суперкомпьютерном центре Южно-Уральского государственного университета: пиковая мощность — 117 терафлопсов, по Linpack — 100,3 терафлопса.
В рейтинге Top500, кстати (во всяком случае, в его ноябрьской версии), «Ломоносов» занимал семнадцатое место, что весьма неплохо. Другое дело, что у текущего лидера — машины, установленной в Тяньцзиньском государственном суперкомпьютерном центре (Китай), пиковая мощность составляет 4701 терафлопс.
Подавляющее большинство суперкомпьютеров, представленных в российском рейтинге, работают на базе процессоров Intel, небольшое количество — на базе чипов Intel и GPU NVidia, которые справляются с некоторыми задачами куда ловчее «обычных» процессоров. Лишь один представитель списка Top50 работает на процессорах IBM и AMD (одновременно), а в целом на AMD приходится лишь четыре позиции.
Помимо прочего, Воеводин отметил, что в начале прошлого года было объявлено, что в Российском федеральном ядерном центре запущен аж петафлопный суперкомпьютер, однако... никакой конкретной информации об этой установке, по словам Воеводина, представлено не было, поэтому в список Top50 она и не могла быть внесена.
После Воеводина слово взяли уже представители двух основных партнёров и спонсоров конференции — компаний Intel и «Т-Платформы».
И Николай Местер из Intel, и Всеволод Опанасенко из «Т-Платформ» прочитали довольно обширные доклады практически на одну и ту же тему — вычисления в масштабах экзафлопса и технические проблемы, мешающие пока что созданию суперкомпьютеров, которые способны достигать столь высоких значений в плане производительности.
Главной проблемой являются «энергетические бюджеты»: экзафлопс-компьютер будет поглощать колоссальное количество энергии. Системы размерами в сотни тысяч узлов — это уже серьёзные проблемы не только с питанием и охлаждением, но и масштабируемостью софта и отказоустойчивостью. С ростом системы уменьшается время, которое система в целом работает без отказа; даже в самых современных и высококачественных системах отказы отдельных узлов происходят регулярно, а следовательно, чем их больше, тем меньше то время, когда вся система способна функционировать как единое целое и демонстрировать экзафлопсы производительности.
И Intel, и «Т-Платформы» ведут ряд разработок в этой области. При этом Всеволод Опанасенко, глава «Т-Платформ», отметил, что достижение экзафлопса возможно будет только благодаря разработке, как он выразился, «новой микроэлектронной базы», то есть технологий, существенно отличающихся от существующих.
Интересно, что в прошлом году директор по маркетингу «Т-Платформ» Елена Чуракова заявила, что в России рынок суперкомпьютерных вычислений по-прежнему очень мал или, во всяком случае, недостаточно велик, чтобы компания-производитель могла интенсивно развиваться.
Возможно, ситуация меняется быстрее, чем можно было бы ожидать.
Конференция «Параллельные вычислительные технологии» будет проходить по 31 марта включительно.
К оглавлению
Веб-стандарты: сколько вешать в граммах?
Константин Кичинский
Опубликовано 01 апреля 2011 года
Об авторе: Константин Кичинский — эксперт департамента стратегических технологий Microsoft в России. Впрочем, написанное ниже — лишь его личное мнение и ощущение происходящих событий. Оно не может рассматриваться как официальное мнение или позиция Microsoft.
Сегодня веб-стандарты начали снова бурно расти, и, честно признаюсь, мне это очень нравится. Конечно, говоря о бурном росте, нужно делать поправку на то, что бурно расти и развиваться начала именно часть, связанная с браузерами и технологиями, лежащими в основе клиентской части веба, — HTML, CSS, JavaScript и разнообразные API для JS, так как вне фокуса внимания обычно остаются не менее интересные области, связанные, в частности, с развитием стандартов, базирующихся на XML, отнологиях и различных проявлений семантического веба.
Причины и корни этого роста можно называть разные, и не последнее место тут занимает обострение конкуренции на рынке веб-браузеров — достаточное для того, чтобы снова начали говорить о браузерных войнах. Это интересно, так как когда начинают работать большие маркетинговые машины (явные или неявные, прямые или опосредованные), всё труднее оказывается понять, что же происходит на самом деле, и всё интереснее докапываться до истины.
Правда, впрочем, заключается в том, что нет только одного истинно верного ответа, зато есть множество нюансов и тонкостей, а набор продвигаемых кем-либо маркетинговых идей не даёт полного представления о всей картине разворачивающихся событий.
Поддержка как маркетингРазвитие браузеров определяется не только стремлением быть в чём-то лучше конкурентов (а зачем иначе нужны все эти тесты производительности и сравнения с конкурирующими решениями), но и желанием предоставить разработчикам новые возможности, которые сделают решение традиционных задач проще или и вовсе откроют новые сценарии для их веб-приложений. И конечно же, желанием сделать жизнь конечных пользователей удобнее, ярче — и (можете вставить миллион других эпитетов).
Производители браузеров не только конкурируют, но и (совместно) развивают веб. Верно и то и другое, и в этом смысле поддержка того или иного нового (или не очень нового) стандарта становится новой опцией не только для разработчика, но и для маркетолога.
Маркетинг может быть не обязательно прямым, исходящим от той или иной организации, разрабатывающей браузер, но и косвенным, идущим от сообщества или энтузиастов, имеющих свои интересы, предпочтения и видение происходящих событий.
В сущности, сегодня поддержка той или иной технологии (веб-стандарта) реально становится инструментом продвижения, причём не менее важным, чем преимущества в скорости работы или загрузки, потребляемой памяти, количестве плагинов или аудитории пользователей.