Вход на сайт
3943 просмотров
19.05.10 20:33 Суперкомпьютерная визуализация
Суперкомпьютерная визуализация отворачивается от GPU
До появления специализированных графических вычислительных чипов
пионеры в области визуализации использовали мультиядерные суперкомпьютеры,
чтобы представить данные в трехмерном виде. По состоянию на сегодняшний
день скорость обработки информации суперкомпьютерами стремительно опережает
пропускную способность интерфейсов ввода-вывода. Графические кластеры
становятся лишними.
До появления специализированных графических вычислительных чипов
пионеры в области визуализации использовали мультиядерные суперкомпьютеры,
чтобы представить данные в трехмерном виде. По состоянию на сегодняшний
день скорость обработки информации суперкомпьютерами стремительно опережает
пропускную способность интерфейсов ввода-вывода. Графические кластеры
становятся лишними.
19.05.10 20:34 Re: дд
Моделирование взрыва звезды с помощью Intrepid – суперкомпьютера IBM Blue Gene/P
Исследователи из Аргоннской национальной лаборатории (Argonne National Laboratory)
и некоторых других организаций работают над решением проблемы. Вместо перемещения
массивов данных в специализированные графические кластеры для рендеринга, как это
происходит сейчас, они заняты созданием программного обеспечения, позволяющего
тысячам процессоров самостоятельно выполнять визуализацию. Том Петерка (Tom Peterka)
и Роб Росс (Rob Ross), ученые по компьютерным наукам Аргоннской лаборатории, и Хонгфенг Ю
(Hongfeng Yu) с Кван-Лью Ма (Kwan-Liu Ma) из Калифорнийского университета в Дэвисе написали
ПО для Intrepid – суперкомпьютера IBM Blue Gene/P, всецело превосходящего графические кластеры. "Он позволяет визуализировать эксперименты на той же машине, где расположены
данные", - объясняет Петерка. Его решение устраняет отнимающий большое количество времени
этап "переброски" данных из той машины, где они генерируются, к кластеру для обработки.
Тестовые данные, которые Петерка получил от Джона Блондина (John Blondin) из Университета
Северной Каролины (North Carolina State University) и Энтони Меззакаппа (Anthony Mezzacappa) из Национальной лаборатории Оак-Ридж (Oak Ridge National Laboratory), представляют 30
последовательных шагов в симуляции взрыва умирающей звезды в симуляции взрыва умирающей звезды и соответствуют типу
производимых суперкомпьютером в Аргоннской лаборатории вычислений. Самый ресурсоемкий
тест включал визуализацию с трехмерным разрешением 89 млрд вокселей (трехмерных пикселей),
а результат в виде двухмерного изображения имел 4096 х 4096 пикселей. Вычисления задействовали
32768 ядер из имеющихся у Intrepid 163840. Двухмерные снимки сгенерированы с помощью алгоритма
параллельного объемного рендеринга – классического метода преобразования трехмерных моделей.
Обычно визуализация и последующая обработка сгенерированных данных Intrepid, который с 557
Тфлопс находится на 7 месте в первой десятке быстрейших суперкомпьютеров, требует отдельной
графической станции – Eureka. Построенная на NVIDIA Quadro Plex S4 GPU, Eureka может похвастаться
производительностью в 111 Тфлопс. Однако, по словам Петерки, "чем более производительны системы,
тем большие проблемы исходят от ограниченных скоростей интерфейсов ввода-вывода". Только запись
на дисковый массив сопровождающих моделирование данных на суперкомпьютере с измеряемой в
петафлопсах производительностью займет непомерно длительный промежуток времени. Это
несоответствие означает, что будущие суперкомпьютерные центры просто не смогут позволить себе
заниматься переносом данных на графические станции и обработкой на них информации. "Для
масштабов петавычислений они слишком малоэффективны", - говорит инженер компьютерных систем и
эксперт по визуализации в Национальной лаборатории Лоуренса в Беркли (Lawrence Berkeley National
Laboratory) Хэнк Чайлдс (Hank Childs). Чайлдс отмечает, что отдельный кластер для визуализации, такой
как Eureka, обычно стоит более $1 млн, но в будущем стоимость может вырасти в 20 раз.
Пэт МакКормик (Pat McCormick), работающий с самым быстрым суперкомпьютером в мире, которым на
данный момент является построенная на AMD Opteron и IBM Cell машина Roadrunner в Лос-Аламосской
национальной лаборатории (Los Alamos National Laboratory), объясняет, что работа Петерки над прямой
визуализацией данных имеет критический характер, потому как "эти машины стали настолько большими,
что выбора попросту не остается". Невозможно просто подключить один кластер к другому, имеющему
нужную функциональность. Он считает дальнейшее существование основанных на графических чипах
методов визуализации целесообразным лишь для некоторых типов моделирования.
Петерка, МакКормик и Чайлдс воображают будущее, где суперкомпьютеры будут выполнять все
вычисления на месте, с параллельной визуализацией обрабатываемых данных, а не постфактум. Чайлдс
поясняет: "Идея заключается в полном избавлении от I/O–операций. Ничего не нужно записывать на
носители; вы запускаете процедуры визуализации, указываете им на код для симуляции и тут же
получаете изображение". Впрочем, не так легок этот путь. Прежде всего, не менее секунды займет
рендеринг каждого кадра, препятствуя возможности взаимодействия с трехмерными моделями в
натуральную величину. Кроме того, такой метод работы потребует очень много ресурсов самых
дорогостоящих мэйнфреймов. "Суперкомпьютеры – чрезвычайно ресурсоемкие машины", - признает
Чайлдс.
Поскольку обычные ПК следуют за суперкомпьютерами и графическими станциями в мир многоядерных и
параллельных вычислений, Петерка размышляет над уходом индустрии от специализации процессоров.
AMD уже представила библиотеку OpenCL, которая делает возможным запуск разработанного для GPU
кода на любом х86-совместимом чипе, и наоборот. Ксавье Кэвин (Xavier Cavin), основатель и
исполнительный директор Scalable Graphics - компании-разработчика программного обеспечения для
используемых бизнесом станций на базе графических чипов, - отмечает, что первый настоящий
алгоритм параллельного объемного рендеринга был запущен на процессорных суперкомпьютерах, после
чего "люди начали использовать GPU–кластеры для той же цели. Теперь наблюдается возвращение
обратно к процессорам. Круг замыкается".
www.technologyreview.com
в ответ tschaley 19.05.10 20:33
Моделирование взрыва звезды с помощью Intrepid – суперкомпьютера IBM Blue Gene/P
Исследователи из Аргоннской национальной лаборатории (Argonne National Laboratory)
и некоторых других организаций работают над решением проблемы. Вместо перемещения
массивов данных в специализированные графические кластеры для рендеринга, как это
происходит сейчас, они заняты созданием программного обеспечения, позволяющего
тысячам процессоров самостоятельно выполнять визуализацию. Том Петерка (Tom Peterka)
и Роб Росс (Rob Ross), ученые по компьютерным наукам Аргоннской лаборатории, и Хонгфенг Ю
(Hongfeng Yu) с Кван-Лью Ма (Kwan-Liu Ma) из Калифорнийского университета в Дэвисе написали
ПО для Intrepid – суперкомпьютера IBM Blue Gene/P, всецело превосходящего графические кластеры. "Он позволяет визуализировать эксперименты на той же машине, где расположены
данные", - объясняет Петерка. Его решение устраняет отнимающий большое количество времени
этап "переброски" данных из той машины, где они генерируются, к кластеру для обработки.
Тестовые данные, которые Петерка получил от Джона Блондина (John Blondin) из Университета
Северной Каролины (North Carolina State University) и Энтони Меззакаппа (Anthony Mezzacappa) из Национальной лаборатории Оак-Ридж (Oak Ridge National Laboratory), представляют 30
последовательных шагов в симуляции взрыва умирающей звезды в симуляции взрыва умирающей звезды и соответствуют типу
производимых суперкомпьютером в Аргоннской лаборатории вычислений. Самый ресурсоемкий
тест включал визуализацию с трехмерным разрешением 89 млрд вокселей (трехмерных пикселей),
а результат в виде двухмерного изображения имел 4096 х 4096 пикселей. Вычисления задействовали
32768 ядер из имеющихся у Intrepid 163840. Двухмерные снимки сгенерированы с помощью алгоритма
параллельного объемного рендеринга – классического метода преобразования трехмерных моделей.
Обычно визуализация и последующая обработка сгенерированных данных Intrepid, который с 557
Тфлопс находится на 7 месте в первой десятке быстрейших суперкомпьютеров, требует отдельной
графической станции – Eureka. Построенная на NVIDIA Quadro Plex S4 GPU, Eureka может похвастаться
производительностью в 111 Тфлопс. Однако, по словам Петерки, "чем более производительны системы,
тем большие проблемы исходят от ограниченных скоростей интерфейсов ввода-вывода". Только запись
на дисковый массив сопровождающих моделирование данных на суперкомпьютере с измеряемой в
петафлопсах производительностью займет непомерно длительный промежуток времени. Это
несоответствие означает, что будущие суперкомпьютерные центры просто не смогут позволить себе
заниматься переносом данных на графические станции и обработкой на них информации. "Для
масштабов петавычислений они слишком малоэффективны", - говорит инженер компьютерных систем и
эксперт по визуализации в Национальной лаборатории Лоуренса в Беркли (Lawrence Berkeley National
Laboratory) Хэнк Чайлдс (Hank Childs). Чайлдс отмечает, что отдельный кластер для визуализации, такой
как Eureka, обычно стоит более $1 млн, но в будущем стоимость может вырасти в 20 раз.
Пэт МакКормик (Pat McCormick), работающий с самым быстрым суперкомпьютером в мире, которым на
данный момент является построенная на AMD Opteron и IBM Cell машина Roadrunner в Лос-Аламосской
национальной лаборатории (Los Alamos National Laboratory), объясняет, что работа Петерки над прямой
визуализацией данных имеет критический характер, потому как "эти машины стали настолько большими,
что выбора попросту не остается". Невозможно просто подключить один кластер к другому, имеющему
нужную функциональность. Он считает дальнейшее существование основанных на графических чипах
методов визуализации целесообразным лишь для некоторых типов моделирования.
Петерка, МакКормик и Чайлдс воображают будущее, где суперкомпьютеры будут выполнять все
вычисления на месте, с параллельной визуализацией обрабатываемых данных, а не постфактум. Чайлдс
поясняет: "Идея заключается в полном избавлении от I/O–операций. Ничего не нужно записывать на
носители; вы запускаете процедуры визуализации, указываете им на код для симуляции и тут же
получаете изображение". Впрочем, не так легок этот путь. Прежде всего, не менее секунды займет
рендеринг каждого кадра, препятствуя возможности взаимодействия с трехмерными моделями в
натуральную величину. Кроме того, такой метод работы потребует очень много ресурсов самых
дорогостоящих мэйнфреймов. "Суперкомпьютеры – чрезвычайно ресурсоемкие машины", - признает
Чайлдс.
Поскольку обычные ПК следуют за суперкомпьютерами и графическими станциями в мир многоядерных и
параллельных вычислений, Петерка размышляет над уходом индустрии от специализации процессоров.
AMD уже представила библиотеку OpenCL, которая делает возможным запуск разработанного для GPU
кода на любом х86-совместимом чипе, и наоборот. Ксавье Кэвин (Xavier Cavin), основатель и
исполнительный директор Scalable Graphics - компании-разработчика программного обеспечения для
используемых бизнесом станций на базе графических чипов, - отмечает, что первый настоящий
алгоритм параллельного объемного рендеринга был запущен на процессорных суперкомпьютерах, после
чего "люди начали использовать GPU–кластеры для той же цели. Теперь наблюдается возвращение
обратно к процессорам. Круг замыкается".
www.technologyreview.com
19.05.10 21:13 Re: дд
в ответ tschaley 19.05.10 20:33
Графические процессоры возьмут 20 Тфлопс к 2015 году
Длительное время основной тенденцией развития интегральных микросхем - центральных и графических процессоров - оставалось увеличение их скоростных показателей при однопоточном режиме работы. В течение более чем двадцати лет такой подход позволял увеличивать производительность микропроцессоров в среднем на 50% ежегодно. Однако такое развитие микросхем прекратилось в 2002 году, когда на смену одноядерным и "однопоточным" решениям пришли многоядерные процессоры для одновременной обработки двух и более потоков команд и данных. Смена курса позволила увеличивать производительность процессоров уже на 70% каждый год, и в ближайшее время ситуация вряд ли существенно изменится.
Именно такую мысль выразил руководитель исследовательских проектов и вице-президент по разработкам компании NVIDIA Уильям Дэлли (William J. Dally), занимающий еще должность профессора Стэндфордского Университета. Но не менее интересным является его взгляд на будущее интегральных микросхем, в частности, графических процессоров компании NVIDIA. Развитие тенденции увеличения количества вычислительных блоков продолжится еще в течение нескольких лет, что приведет к появлению к 2015 году графического процессора, оснащенного несколькими тысячами ядер.
Intel TeraScale - 80-ядерный процессор уже в лаборатории
По его прогнозу, к этому сроку компания NVIDIA сможет разработать процессор с пятью тысячами вычислительных блоков, что позволит добиться производительности в 20 терафлопс. Для сравнения, большинство суперкомпьютеров, входящих сегодня в список пятисот самых мощных вычислительных систем в мире, обладают пиковой производительностью в несколько десятков терафлопс. Другими словами, один лишь графический процессор для настольных компьютеров через несколько лет сравняется с производительностью целого вычислительного комплекса.
Инженеры работают над подготовкой 22-нм техпроцесса, освоение 11-нм не за горами
Разумеется, одной из основных задач в данном случае станет разработка технологии изготовления столь сложных интегральных микросхем. Согласно прогнозам Уильяма Дэйли, к 2015 году графические процессоры будут изготовляться по 11-нм техпроцессу, что позволит размещать на небольшом полупроводниковом кристалле миллиарды транзисторов.
IBM уже экспериментирует с оптическими межсоединениями нескольких ядер на кристалле
Но нельзя забывать, что только лишь миниатюризацией микросхем не обойтись. Не менее важно удержать выделяемую графическим процессором мощность в разумных пределах - вряд ли TDP процессоров должен быть значительно выше того уровня, на котором остановились современные микрочипы. Наиболее проблемной зоной здесь являются проводящие компоненты, играющие значительную роль в тепловыделении микросхемы. Понятно, что общеупотребимые сегодня металлические проводники должны уступить место более совершенным вариантам. В частности, Уильям Дэйл упоминает переход на технологию оптических межсоединений. Можно вспомнить и последние открытия, касающиеся уникальных свойств графеновых проводников, которые оказываются в тысячи раз лучше медных. Впрочем, пока серьезных подвижек, говорящих о возможности скорой коммерциализации новейших технологий, нет - разработки пока находятся на стадии лабораторных проектов с не очень ясным сроком выхода на мировой рынок. Ясно одно - интегральные микросхемы в ближайшем будущем станут гораздо миниатюрнее, производительнее своих современных аналогов. А вот за счет каких открытий удастся удержать их энергопотребление, инженерам еще предстоит выяснить.
Александр Бакаткин
Длительное время основной тенденцией развития интегральных микросхем - центральных и графических процессоров - оставалось увеличение их скоростных показателей при однопоточном режиме работы. В течение более чем двадцати лет такой подход позволял увеличивать производительность микропроцессоров в среднем на 50% ежегодно. Однако такое развитие микросхем прекратилось в 2002 году, когда на смену одноядерным и "однопоточным" решениям пришли многоядерные процессоры для одновременной обработки двух и более потоков команд и данных. Смена курса позволила увеличивать производительность процессоров уже на 70% каждый год, и в ближайшее время ситуация вряд ли существенно изменится.
Именно такую мысль выразил руководитель исследовательских проектов и вице-президент по разработкам компании NVIDIA Уильям Дэлли (William J. Dally), занимающий еще должность профессора Стэндфордского Университета. Но не менее интересным является его взгляд на будущее интегральных микросхем, в частности, графических процессоров компании NVIDIA. Развитие тенденции увеличения количества вычислительных блоков продолжится еще в течение нескольких лет, что приведет к появлению к 2015 году графического процессора, оснащенного несколькими тысячами ядер.
Intel TeraScale - 80-ядерный процессор уже в лаборатории
По его прогнозу, к этому сроку компания NVIDIA сможет разработать процессор с пятью тысячами вычислительных блоков, что позволит добиться производительности в 20 терафлопс. Для сравнения, большинство суперкомпьютеров, входящих сегодня в список пятисот самых мощных вычислительных систем в мире, обладают пиковой производительностью в несколько десятков терафлопс. Другими словами, один лишь графический процессор для настольных компьютеров через несколько лет сравняется с производительностью целого вычислительного комплекса.
Инженеры работают над подготовкой 22-нм техпроцесса, освоение 11-нм не за горами
Разумеется, одной из основных задач в данном случае станет разработка технологии изготовления столь сложных интегральных микросхем. Согласно прогнозам Уильяма Дэйли, к 2015 году графические процессоры будут изготовляться по 11-нм техпроцессу, что позволит размещать на небольшом полупроводниковом кристалле миллиарды транзисторов.
IBM уже экспериментирует с оптическими межсоединениями нескольких ядер на кристалле
Но нельзя забывать, что только лишь миниатюризацией микросхем не обойтись. Не менее важно удержать выделяемую графическим процессором мощность в разумных пределах - вряд ли TDP процессоров должен быть значительно выше того уровня, на котором остановились современные микрочипы. Наиболее проблемной зоной здесь являются проводящие компоненты, играющие значительную роль в тепловыделении микросхемы. Понятно, что общеупотребимые сегодня металлические проводники должны уступить место более совершенным вариантам. В частности, Уильям Дэйл упоминает переход на технологию оптических межсоединений. Можно вспомнить и последние открытия, касающиеся уникальных свойств графеновых проводников, которые оказываются в тысячи раз лучше медных. Впрочем, пока серьезных подвижек, говорящих о возможности скорой коммерциализации новейших технологий, нет - разработки пока находятся на стадии лабораторных проектов с не очень ясным сроком выхода на мировой рынок. Ясно одно - интегральные микросхемы в ближайшем будущем станут гораздо миниатюрнее, производительнее своих современных аналогов. А вот за счет каких открытий удастся удержать их энергопотребление, инженерам еще предстоит выяснить.
Александр Бакаткин
19.05.10 22:12 Re: Суперкомпьютерная визуализация
в ответ tschaley 19.05.10 20:33
Как взрываются звезды. Автор - Blue Gene/P
Физики из Аргоннской национальной лаборатории (Argonne National Laboratory) в Чикаго воспользовались суперкомпьютером IBM Blue Gene/P, чтобы смоделировать экстремальную физику взрыва суперновы – сверхновой звезды. В итоге ученые получили очень интересные визуализированные модели, изображения которых могут представлять не обязательно научную, но и художественную ценность. Абстракции с физическим смыслом.
Моделирование взрыва звезды с помощью Intrepid – суперкомпьютера IBM Blue Gene/P
Суперкомпьютерная визуализация отображает механизм смерти массивной звезды с коротким жизненным циклом. На изображении – рассчитанные энергии в ядре сверхновой. Различные цвета и прозрачность соотносятся с различными значениями энтропии. Настраивая эти параметры, ученые могут обойти внешние слои и заглянуть внутрь звезды.
Компьютерный снимок сверхновой типа Ia (подкатегория цефеид) сразу после момента детонации. Количество высвобождаемой энергии эквивалентно 10^27 водородных бомб, каждая по 10 мегатонн в тротиловом эквиваленте. Эта громадная энергия делает взрывы подобных звезд одними из самых ярких во вселенной, их также используют как индикаторы расстояний в космологии.
Продолжение процесса. Сам взрыв длится менее 5 секунд, но суперкомпьютер использовал более 160 тыс. процессоров и 22 млн. вычислительных часов для его симуляции.
Три визуализации ядерных процессов в сверхновой. Изображение слева показывает ядерные "языки пламени", остальные – скорость термоядерных реакций и энстрофию.
Трехмерное изображение симуляции сверхновой типа Ia. Запечатлено сразу после того, как вспыхнул инициирующий процесс ядерный "пузырь" около центра бывшего белого карлика, показанного синим цветом. Выталкивающие силы заставляют "пузырь" быстро двигаться к поверхности белого карлика.
Денис Борн
IT-Байки: Электроника-2020 – жизнь после смерти кремния
http://www.3dnews.ru/editorial/it_beyond_si/
Физики из Аргоннской национальной лаборатории (Argonne National Laboratory) в Чикаго воспользовались суперкомпьютером IBM Blue Gene/P, чтобы смоделировать экстремальную физику взрыва суперновы – сверхновой звезды. В итоге ученые получили очень интересные визуализированные модели, изображения которых могут представлять не обязательно научную, но и художественную ценность. Абстракции с физическим смыслом.
Моделирование взрыва звезды с помощью Intrepid – суперкомпьютера IBM Blue Gene/P
Суперкомпьютерная визуализация отображает механизм смерти массивной звезды с коротким жизненным циклом. На изображении – рассчитанные энергии в ядре сверхновой. Различные цвета и прозрачность соотносятся с различными значениями энтропии. Настраивая эти параметры, ученые могут обойти внешние слои и заглянуть внутрь звезды.
Компьютерный снимок сверхновой типа Ia (подкатегория цефеид) сразу после момента детонации. Количество высвобождаемой энергии эквивалентно 10^27 водородных бомб, каждая по 10 мегатонн в тротиловом эквиваленте. Эта громадная энергия делает взрывы подобных звезд одними из самых ярких во вселенной, их также используют как индикаторы расстояний в космологии.
Продолжение процесса. Сам взрыв длится менее 5 секунд, но суперкомпьютер использовал более 160 тыс. процессоров и 22 млн. вычислительных часов для его симуляции.
Три визуализации ядерных процессов в сверхновой. Изображение слева показывает ядерные "языки пламени", остальные – скорость термоядерных реакций и энстрофию.
Трехмерное изображение симуляции сверхновой типа Ia. Запечатлено сразу после того, как вспыхнул инициирующий процесс ядерный "пузырь" около центра бывшего белого карлика, показанного синим цветом. Выталкивающие силы заставляют "пузырь" быстро двигаться к поверхности белого карлика.
Денис Борн
IT-Байки: Электроника-2020 – жизнь после смерти кремния
http://www.3dnews.ru/editorial/it_beyond_si/
19.05.10 22:39 Re: Суперкомпьютерная визуализация
в ответ tschaley 19.05.10 20:33
Битва чипмейкеров за освоение 22-нм техпроцесса
Несмотря на то, что многие скептики уже довольно давно предрекают смерть закону Мура – миниатюризация не может продолжаться бесконечно, и такими темпами, которые выдерживаются сегодня – пока закон, сформулированный около полувека назад, все еще справедлив. Очередным этапом, позволяющим говорить о том, что и в ближайшие несколько лет электроника будет развиваться по намеченному сценарию, является освоение новейшей технологии изготовления интегральных микросхем с проектной нормой 22 нанометра.
Сегодня можно выделить сразу несколько «центров» развития технологии изготовления новейших полупроводниковых приборов. Первым является компания IBM, с которой сотрудничают AMD и Freescale Semiconductor. Именно им к этому моменту удалось создать микросхему статической памяти (SRAM), изготовленную по 22-нм техпроцессу. В данном случае ячейка памяти состоит из шести транзисторов с минимальной шириной затвора 22 нм. Расстояние между двумя соседними транзисторами при этом составляет 90 нм. Эти цифры, по заверениям инженеров, на текущий момент являются рекордно низкими, а как следствие, рекордно низкой оказывается и площадь ячейки статической памяти – всего лишь 0,09 кв. мкм. К сожалению, пока характеристики получаемых устройств не позволяют начать коммерческое применение технологии, в частности, говорится об очень низкой производительности. Однако на данном этапе исследований инженеры не применяли целый ряд технологий, например, технологию напряженного кремния, что дает возможность для дальнейшей оптимизации микросхем.
Вторым центром развития полупроводниковой индустрии является компания Intel, которая первой выпустила на мировой рынок 45-нм интегральные микросхемы, и, без сомнения, первой совершит переход на 32-нм техпроцесс. Впрочем, ведущий мировой чипмейкер с уверенностью смотрит в будущее – сотрудники компании ведут активную разработку технологии изготовления 22-нм микросхем. При этом, основные параметры, такие как ширина затвора транзисторов и расстояние между ними, точно соответствуют параметрам, достигнутым инженерами IBM, AMD и Freescale Semiconductor.
С недавних пор к IBM с ее партнерами и компании Intel присоединилась и тайваньская компания TSMC, также намеревающаяся стать одним из лидеров в области разработки новейших технологий изготовления полупроводниковых устройств. Пару лет назад представители тайваньского чипмейкера во всеуслышание объявили о разработке 32-нм техпроцесса, причем без применения таких новшеств, как higk-k-диэлектрики и металлический затвор. Впрочем, недавно TSMC заявила о «пропуске» этого этапа своего развития, и перехода сразу к 28-нм техпроцессу. По всей видимости, TSMC уже создала первый прототип 28-нм статической памяти – применительно к ним приводятся следующие сведения: ширина затвора составляет 24 нм, но при этом рабочие токи выше, нежели для 32-нм устройств Intel. В октябре 2008 года компания заявила, что планирует начать серийный выпуск новейших микросхем уже в третьем квартале 2010 года. То есть на доработку технологии у инженеров остается около полутора лет.
03.2009 Александр Бакаткин
Cell для PS3 переводят на 45-нм техпроцесс
в 2009 году PlayStation 3 (PS3) будут собирать с использованием процессоров Cell, выполненных по 45-нм техпроцессу. Переход с 65-нм техпроцесса объясняется, прежде всего, дешевизной производства. Возможно, после этого стоимость приставки, наконец-то, будет сокращена. Среди других преимуществ новой микросхемы стоит также выделить потребление меньшего количества энергии и умеренное тепловыделение. Сама реформа состоится в середине года.
В последнее время ситуация вокруг PlayStation 3 складывается не самая радужная. Эта консоль остаётся самой дорогой на рынке
Несмотря на то, что многие скептики уже довольно давно предрекают смерть закону Мура – миниатюризация не может продолжаться бесконечно, и такими темпами, которые выдерживаются сегодня – пока закон, сформулированный около полувека назад, все еще справедлив. Очередным этапом, позволяющим говорить о том, что и в ближайшие несколько лет электроника будет развиваться по намеченному сценарию, является освоение новейшей технологии изготовления интегральных микросхем с проектной нормой 22 нанометра.
Сегодня можно выделить сразу несколько «центров» развития технологии изготовления новейших полупроводниковых приборов. Первым является компания IBM, с которой сотрудничают AMD и Freescale Semiconductor. Именно им к этому моменту удалось создать микросхему статической памяти (SRAM), изготовленную по 22-нм техпроцессу. В данном случае ячейка памяти состоит из шести транзисторов с минимальной шириной затвора 22 нм. Расстояние между двумя соседними транзисторами при этом составляет 90 нм. Эти цифры, по заверениям инженеров, на текущий момент являются рекордно низкими, а как следствие, рекордно низкой оказывается и площадь ячейки статической памяти – всего лишь 0,09 кв. мкм. К сожалению, пока характеристики получаемых устройств не позволяют начать коммерческое применение технологии, в частности, говорится об очень низкой производительности. Однако на данном этапе исследований инженеры не применяли целый ряд технологий, например, технологию напряженного кремния, что дает возможность для дальнейшей оптимизации микросхем.
Вторым центром развития полупроводниковой индустрии является компания Intel, которая первой выпустила на мировой рынок 45-нм интегральные микросхемы, и, без сомнения, первой совершит переход на 32-нм техпроцесс. Впрочем, ведущий мировой чипмейкер с уверенностью смотрит в будущее – сотрудники компании ведут активную разработку технологии изготовления 22-нм микросхем. При этом, основные параметры, такие как ширина затвора транзисторов и расстояние между ними, точно соответствуют параметрам, достигнутым инженерами IBM, AMD и Freescale Semiconductor.
С недавних пор к IBM с ее партнерами и компании Intel присоединилась и тайваньская компания TSMC, также намеревающаяся стать одним из лидеров в области разработки новейших технологий изготовления полупроводниковых устройств. Пару лет назад представители тайваньского чипмейкера во всеуслышание объявили о разработке 32-нм техпроцесса, причем без применения таких новшеств, как higk-k-диэлектрики и металлический затвор. Впрочем, недавно TSMC заявила о «пропуске» этого этапа своего развития, и перехода сразу к 28-нм техпроцессу. По всей видимости, TSMC уже создала первый прототип 28-нм статической памяти – применительно к ним приводятся следующие сведения: ширина затвора составляет 24 нм, но при этом рабочие токи выше, нежели для 32-нм устройств Intel. В октябре 2008 года компания заявила, что планирует начать серийный выпуск новейших микросхем уже в третьем квартале 2010 года. То есть на доработку технологии у инженеров остается около полутора лет.
03.2009 Александр Бакаткин
Cell для PS3 переводят на 45-нм техпроцесс
в 2009 году PlayStation 3 (PS3) будут собирать с использованием процессоров Cell, выполненных по 45-нм техпроцессу. Переход с 65-нм техпроцесса объясняется, прежде всего, дешевизной производства. Возможно, после этого стоимость приставки, наконец-то, будет сокращена. Среди других преимуществ новой микросхемы стоит также выделить потребление меньшего количества энергии и умеренное тепловыделение. Сама реформа состоится в середине года.
В последнее время ситуация вокруг PlayStation 3 складывается не самая радужная. Эта консоль остаётся самой дорогой на рынке
20.05.10 00:08 Re: Суперкомпьютерная визуализация
в ответ tschaley 19.05.10 20:33
Audi применит чипы NVIDIA в автомобилях
Компании NVIDIA и Audi рассказали об уже реализованных плодах своего сотрудничества и масштабных планах по его дальнейшему продолжению. Согласно приведенной информации, автомобили Audi модельного ряда 2010 года оснащаются фирменной информационно-развлекательной системой третьего поколения (то, что автопроизводитель скромно называет мультимедийным интерфейсом, 3G MMI), в которой все функции, связанные с обработкой и выводом визуальной информации, реализованы на базе графических процессоров NVIDIA.
Встроенная навигационная система поддерживает отображение трехмерной топографической информации о строениях и городах, оповещение в реальном времени о загруженности дорог и навигационное сопровождение посредством вывода подсказок голосом и цветными стрелками-указателями поворотов на дисплее. Эта система может распознавать сложные сценарии и принимать упреждающие решения, позволяющие водителю более безопасно управлять автомобилем.
Базой для реализации мультимедийных возможностей в 3G MMI служит совместная разработка NVIDIA и Audi, полнофункциональная платформа Vibrante. Благодаря ей пассажиры могут просматривать видео с DVD или онлайновых источников и слушать музыку с iPod, CD, карт памяти SD или USB-накопителей. Vibrante также является первой в отрасли мультимедийной платформой, поддерживающей «двухзонный вывод» на базе единственного графического процессора, что дает возможность пассажирам на задних сидениях независимо друг от друга смотреть два различных фильма на двух экранах, встроенных в подголовники передних кресел.
«Разница в вычислительных ресурсах для визуализации становится ключевым дифференциатором между автомобилями класса люкс, будь то предоставление необходимой информации водителю, или обеспечение современных вариантов развлечений для пассажиров» – сказал Йохан де Нисшен (Johan de Nysschen), президент американского подразделения Audi. «Мы сотрудничаем с NVIDIA, поскольку это явный лидер в данной области». Еще одно направление сотрудничества компаний во взаимодействии с Google – обеспечение поддержки Google Earth в будущих системах 3G MMI на базе GPU NVIDIA, начиная с флагманского Audi A8 в 2011 г. Сервис Google Earth основан на технологии, в свое время разработанной компанией Keyhole, бывшей тогда объектом инвестиций для NVIDIA, а впоследствии приобретенной Google. Результатом трехстороннего сотрудничества стала первая в отрасли 3D-навигационная система с детальными моделями территории, с высочайшим быстродействием, с объемным рельефом местности и интуитивно-понятным визуальным интерфейсом.
В дополнение к этому партнеры сообщили, что мобильные процессоры с низким уровнем энергопотребления NVIDIA Tegra следующего поколения станут базой для развлекательных и навигационных систем автомобилей Audi 2012 модельного года, равно как и других брендов группы Volkswagen AG, включая собственно Volkswagen, Bentley, Lamborghini, SEAT и SKODA, с вариациями по уровню функциональности. Ожидается, что использование высокоэкономичной Tegra позволит десятикратно сократить расход энергии по сравнению с типичными текущими показателями, что улучшит также и экономию топлива.
«Первейшим приоритетом автомобильных вычислительных систем является безопасность» – сказал Джен-Сан Хуанг (Jen-Hsun Huang), президент и исполнительный директор NVIDIA. «С мощью восьми процессоров Tegra бортовая вычислительная система может иметь камеры и внутри, и снаружи автомобиля, демонстрируя обзор машины и дороги, обеспечивая обратную связь в режиме реального времени и направляя вас к следующему пункту назначения одновременно».
История использования технологий NVIDIA в автомобильной индустрии насчитывает уже боле десяти лет, начавшись с выпуска линейки профессиональных видеокарт Quadro и рабочих станций на их базе. Но если до недавнего времени разработки компании применялись преимущественно для конструирования и моделирования, то теперь чипы NVIDIA стали находить применение и непосредственно в автомобилях.
Audi A8 с чипом NVIDIA предоставит доступ к Google Earth.
Компании NVIDIA и Audi рассказали об уже реализованных плодах своего сотрудничества и масштабных планах по его дальнейшему продолжению. Согласно приведенной информации, автомобили Audi модельного ряда 2010 года оснащаются фирменной информационно-развлекательной системой третьего поколения (то, что автопроизводитель скромно называет мультимедийным интерфейсом, 3G MMI), в которой все функции, связанные с обработкой и выводом визуальной информации, реализованы на базе графических процессоров NVIDIA.
Встроенная навигационная система поддерживает отображение трехмерной топографической информации о строениях и городах, оповещение в реальном времени о загруженности дорог и навигационное сопровождение посредством вывода подсказок голосом и цветными стрелками-указателями поворотов на дисплее. Эта система может распознавать сложные сценарии и принимать упреждающие решения, позволяющие водителю более безопасно управлять автомобилем.
Базой для реализации мультимедийных возможностей в 3G MMI служит совместная разработка NVIDIA и Audi, полнофункциональная платформа Vibrante. Благодаря ей пассажиры могут просматривать видео с DVD или онлайновых источников и слушать музыку с iPod, CD, карт памяти SD или USB-накопителей. Vibrante также является первой в отрасли мультимедийной платформой, поддерживающей «двухзонный вывод» на базе единственного графического процессора, что дает возможность пассажирам на задних сидениях независимо друг от друга смотреть два различных фильма на двух экранах, встроенных в подголовники передних кресел.
«Разница в вычислительных ресурсах для визуализации становится ключевым дифференциатором между автомобилями класса люкс, будь то предоставление необходимой информации водителю, или обеспечение современных вариантов развлечений для пассажиров» – сказал Йохан де Нисшен (Johan de Nysschen), президент американского подразделения Audi. «Мы сотрудничаем с NVIDIA, поскольку это явный лидер в данной области». Еще одно направление сотрудничества компаний во взаимодействии с Google – обеспечение поддержки Google Earth в будущих системах 3G MMI на базе GPU NVIDIA, начиная с флагманского Audi A8 в 2011 г. Сервис Google Earth основан на технологии, в свое время разработанной компанией Keyhole, бывшей тогда объектом инвестиций для NVIDIA, а впоследствии приобретенной Google. Результатом трехстороннего сотрудничества стала первая в отрасли 3D-навигационная система с детальными моделями территории, с высочайшим быстродействием, с объемным рельефом местности и интуитивно-понятным визуальным интерфейсом.
В дополнение к этому партнеры сообщили, что мобильные процессоры с низким уровнем энергопотребления NVIDIA Tegra следующего поколения станут базой для развлекательных и навигационных систем автомобилей Audi 2012 модельного года, равно как и других брендов группы Volkswagen AG, включая собственно Volkswagen, Bentley, Lamborghini, SEAT и SKODA, с вариациями по уровню функциональности. Ожидается, что использование высокоэкономичной Tegra позволит десятикратно сократить расход энергии по сравнению с типичными текущими показателями, что улучшит также и экономию топлива.
«Первейшим приоритетом автомобильных вычислительных систем является безопасность» – сказал Джен-Сан Хуанг (Jen-Hsun Huang), президент и исполнительный директор NVIDIA. «С мощью восьми процессоров Tegra бортовая вычислительная система может иметь камеры и внутри, и снаружи автомобиля, демонстрируя обзор машины и дороги, обеспечивая обратную связь в режиме реального времени и направляя вас к следующему пункту назначения одновременно».
История использования технологий NVIDIA в автомобильной индустрии насчитывает уже боле десяти лет, начавшись с выпуска линейки профессиональных видеокарт Quadro и рабочих станций на их базе. Но если до недавнего времени разработки компании применялись преимущественно для конструирования и моделирования, то теперь чипы NVIDIA стали находить применение и непосредственно в автомобилях.
Audi A8 с чипом NVIDIA предоставит доступ к Google Earth.