Между тем директор по планированию продукции Microsoft Альберт Пенелло не считает спецификации и какие-то формальные показатели адекватным методом оценки потребительских характеристик этих двух игровых приставок. Как утверждает Пенелло в игровом форуме NeoGAF, разница в производительность между этими двумя платформами не настолько велика, как может представить среднестатистический потребитель, глядя на цифры. Особенности обеих архитектур и некоторые другие нюансы, как он считает, практически уравнивают системы.
Среди этих «нюансов», конечно же, огромный опыт Microsoft в области программной оптимизации графики, накопленный за годы работы над программным интерфейсом DirectX: «Мы СОЗДАЛИ DirectX, стандартный API, который используют все программисты. И когда люди превозносят Sony за её аппаратные достижения, неужели вы думаете, что мы не знаем, как построить систему, оптимизированную для максимального качества графики? Серьёзно? Мы ни в коем случае не отдаём 30-процентное преимущество Sony. И ЛЮБОЙ, кто увидит обе системы в работе, скажет, что на обеих игры выглядят великолепно. Если бы между ними действительно была такая огромная разница в производительности, это было бы очевидно».
Такое, продолжает Пенелло, происходит с появлением буквально КАЖДОГО нового поколения игровых приставок: «Sony заявляла о превосходстве в производительности процессоров Cell, Emotional Engine, и она это делают снова. А в конце концов оказывается, что игры на нашей приставке выглядят так же или даже лучше». Что же, вполне убедительно, и с этим мнением вполне можно согласиться.
Однако чуть позже Пенелло пишет подробный пост, в котором пытается оспорить корректность сравнения самих цифр, и вот здесь его аргументация выглядит уже весьма сомнительно. Более того, он буквально только что называл бессмысленным сравнение спецификаций, а здесь занимается именно этим.
«18 вычислительных блоков против 12 вычислительных блоков =/= на 50% больше производительности. Многоядерные процессоры унаследовали (у ЦП. - О. Н.) неэффективный рост производительности с увеличением числа вычислительных блоков, поэтому просто некорректно говорить о 50-процентном приросте производительности графического процессора», — пишет Пенелло. Вообще-то именно в графических процессорах, в отличие от центральных, нагрузка масштабируется почти идеально, поэтому вдвое больше ядер — это в самом деле вдвое большая производительность.
«Вдобавок к этому каждый наш вычислительный блок на 6% быстрее. И это не просто 6-процентное увеличение тактовой частоты». Сокровенный смысл этого утверждения уловить так и не удалось.
«У нас большая пропускная способность памяти. 176 Гбайт/с — это пиковая скорость GDDR5 «на бумаге». Наш максимум «на бумаге» — 272 Гбайт/с (68 Гбайт/с для DDR3 + 204 Гбайт/с для ESRAM). ESRAM способна одновременно считывать и записывать данные, поэтому, как я понимаю, эти цифры неправильно интерпретируют». Просто складывать скорости двух разных типов памяти, даже физически расположенных в различных местах, наверное, более чем некорректно. К тому же мы не знаем, как реально используется действительно быстрая ESRAM объёмом всего 32 Мбайта и насколько она ускоряет тормозную DDR3, но нам известно, что у PlayStation 4 скоростная GDDR5 и что её там намного больше.
«У нас на 10% более мощный центральный процессор. Не просто более быстрый процессор, но и намного лучший звуковой чип, снижающий нагрузку на ЦП». Вполне возможно, что это действительно так.
«Мы прекрасно понимаем важность GPGPU (ГП общего назначения, то есть применение графического процессора для общих вычислений). В Microsoft изобрели DirectCompute (программный интерфейс. - О. Н.), и мы используем GPGPU в серийном продукте с 2010 года: он называется Kinect». Не очень понятно, при чём тут API для общих вычислений, если речь идёт по большому счёту о графической производительности.
«Если говорить о GPGPU, то у нас втрое выше пропускная способность шины ГП-ЦП для GPGPU, составляющая 30 Гбайт/с, что значительно повышает способность ЦП эффективно считывать данные, генерируемые ГП». Вероятно, это какая-то внутренняя информация, поскольку официально ни о чём подобном нигде не говорилось.
В заключение Пенелли выражает надежду, что эти более конкретные цифры помогут осознать: в Microsoft действительно минимизировали «узкие места» системы. Кроме того, он дал понять, что в целях развенчания мифа об огромном разрыве в производительности между Xbox One и PlayStation 4 самые квалифицированные инженеры-разработчики компании готовы рассказать подробности о конструкции приставки.
* * *
Разумеется, абстрактное сравнение заявленных показателей и даже моделирование систем вряд ли можно считать объективной оценкой производительности реальных приставок, и все аргументы в пользу той или иной стороны, пока настоящие серийные экземпляры Xbox One и PlayStation 4 не столкнутся лицом к лицу, будут оставаться лишь досужими домыслами. Именно поэтому несколько удивляет та неожиданная активность, с которой представители Microsoft бросились опровергать мнение о значительном отставании их детища от новой японской консоли.
К оглавлению
Пластиковый сейф: исследование уязвимости в системах цифровой сертификации
Андрей Васильков
Опубликовано 17 сентября 2013
Многие смарт-карты обладают низкой криптографической защитой либо не имеют её вовсе. Это утверждение справедливо даже для тех карт, которые признаны соответствующими жёстким критериям FIPS 140-2 Level 2 и надёжность которых подтверждена двумя международными сертификатами. К такому выводу пришла группа из семи независимых криптографов.
Полный отчёт об исследовании, компрометирующем существующую систему сертификации, будет представлен на конференции Asiacrypt 2013. Часть любопытных деталей стала известна уже сейчас.
Серьёзная уязвимость была выявлена в тайваньской программе цифровой сертификации с использованием персональных смарт-карт. С учётом её характера можно предположить, что она затрагивает другие страны и области применения. Основная проблема заключается в генераторе псевдослучайных чисел (ГПСЧ), применяемом в широко распространённом варианте криптосистемы RSA.
Пример ненадёжного персонального цифрового сертификата на смарт-карте (фото: Dan Goodin).
Приставка «псевдо» используется потому, что получение истинно случайных значений трудно реализовать на уровне математических алгоритмов. Создаваемые генераторами цифровые последовательности всегда немного отклоняются от закона равномерного распределения. Однако эти отличия от идеальной схемы обычно не слишком принципиальны и нивелируются по мере увеличения множества сгенерированных чисел, а каждый генератор проходит ряд проверок, прежде чем стать основой серьёзного программного продукта.
В рассматриваемом случае генератор для системы цифровой сертификации оказался настолько посредственным, что среди собранных ключей RSA длиной 1 024 бита группе аналитиков под руководством Кеннета Дж. Патерсона удалось взломать 184 штуки в течение нескольких часов на рядовом персональном компьютере.
Распределение этих простых чисел не выглядит случайным даже с оговорками (изображение: Daniel J. Bernstein et al.).
При использовании корректного ГПСЧ стойкость криптографической системы RSA (как и всех алгоритмов асимметричного шифрования) базируется на том, что при наличии открытого ключа сложно вычислить парный ему секретный.
Ключи создаются на основе произведения пар больших простых чисел (натуральных чисел, которые делятся без остатка только на единицу и сами на себя). Эти числа генерируются псевдослучайным образом. В теории ключу длиной 1 024 бита соответствует множество из 2502 простых чисел. Для атакующей стороны они все равновероятны.
На практике это означает неприемлемо долгое время атаки (годы, века) даже с использованием суперкомпьютера или сети распределённых вычислений, так как она в конечном счёте сводится к решению задачи факторизации — представления (больших) целых чисел в виде произведения простых.
Эксперт по вопросам криптографии Марк Бернетт поясняет в своём микроблоге, что число атомов во Вселенной гораздо меньше множества этих пар. Поэтому при реальном соблюдении всех требований FIPS 140-2 Level 2 шанс найти два идентичных произведения простых чисел или сотню слабых ключей RSA даже из миллионов образцов должен быть очень близок к нулевому.