Программирование на JAVA, C++, PASCAL

Архитектура ЭВМ

Технология Hyper-Threading от Intel

Производительности всегда мало

Об эффективности всегда много говорят. И не только в корпоративном окружении, в каких-то серьезных проектах, но и в повседневной жизни. Говорят, homo sapiens лишь частично задействуют возможности своего мозга. (читать далее...)

стр. 0 1

Hyper-Threading

Проблема неполного использования исполнительных устройств связана с несколькими причинами. Вообще говоря, если процессор не может получать данные с желаемой скоростью (это происходит в результате недостаточной пропускной способности системной шины и шины памяти), то исполнительные устройства будут использоваться не так эффективно. (читать далее...)

стр. 2 3

Углубляемся в технологию

Помните те два потока из предыдущих примеров? Давайте на этот раз предположим, что наш процессор оснащен Hyper-Threading. Посмотрим, что получится, если мы попытаемся одновременно выполнить эти два потока: ALU FPU Load/ Store 1 2 3 Clock Cycle Рис. (читать далее...)

стр. 4 5

Максимум эффективности от Hyper-Threading

Сначала Intel разработала Hyper-Threading для своей линейки серверных процессоров, но на кристалле в первых же процессорах Pentium 4 была реализована эта технология, но не включена, т.к предполагала, что уже существующие в широком пользовании приложения будут только уменьшать производительность обработки из-за увеличения количества аппаратных конфликтов. (читать далее...)

стр. 6 7

Архитектура IA-64

В IA-64 два нововведения по сравнению с RISC-процессорами: · Применение технологии явного параллелизма на уровне команд (EPIC - Explicitly Parallel Instruction Computing). · Применение предикатных вычислений. (читать далее...)

стр. 8 9

Архитектура Е2К

Подход, близкий к IA-64, уже был реализован в России - в произведенном в единственном экземпляре суперкомпьютере Эльбрус-3, выпущенном в 1991 году. В E2K используются команды переменной длины. (читать далее...)

стр. 10 11 12 13 14 15

Большие компьютерные системы

Виды параллельной обработки

Приложения, которые планируется использовать для выполнения значительного объема вычислений, следует устанавливать в системах с высоким быстродействи­ем. Подобные системы часто называют суперкомпьютерами. (читать далее...)

стр. 16 17 18 19 20 21 22

Матричная обработка данных

Первым способом параллельной обработки данных, который был изучен и реали­зован на практике, была архитектура SIMD, называемая также матричной обра­боткой (array processing). В начале 1970-х годов в университете штата Иллинойс на основе принципа матричной обработки была создана система ILLIAC-IV, позднее изготовленная компанией Burroughs Corporation. (читать далее...)

стр. 23 24 25 26

Архитектура мультипроцессорных систем общего назначения

Описанные в предыдущем разделе матричные системы предназначены для вы­полнения вычислений с ярко выраженным параллелизмом данных. Для других задач, где нет столь явно выраженного параллелизма данных, гораздо лучше под­ходит архитектура MIMD, в которой множество процессоров могут независимо и параллельно выполнять разные подпрограммы. (читать далее...)

стр. 27 28 29

Коммуникационные сети

А сейчас мы рассмотрим возможные способы реализации коммуникационных се­тей в мультипроцессорных системах. Коммуникационная сеть должна обеспечи­вать передачу данных между любыми двумя модулями системы. (читать далее...)

стр. 30 31 32 33 34 35 36 37 38 39 40 41 42 43

Организация памяти в мультипроцессорных системах

В разделе 6 было показано, какое большое влияние на производительность оказывает организация памяти в однопроцессорной системе. Сказанное верно и для мульти­процессорных систем. Для того чтобы использовать свойство локализации ссы­лок, в каждый процессор обычно включают первичный и вторичный кэши. (читать далее...)

стр. 44 45 46

Программный параллелизм и общие переменные

Во введении к этой главе говорилось, что сложную задачу не всегда легко разбить на параллельно выполняемые подзадачи. Однако есть особые случаи, когда это сделать достаточно просто. В частности, если главная задача представляет собой набор независимых программ, эти программы легко выполнить на разных про­цессорах. (читать далее...)

стр. 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

Мультикомпьютерные системы

В разделе 10.5 было введено понятие мультикомпьютерных систем. Теперь мы подробно рассмотрим основные особенности таких систем. мультикомпьютерная система структурирована так, как показано на рис. (читать далее...)

стр. 63 64 65

Общая память и передача сообщений

В предыдущих разделах были описаны аппаратные аспекты мультипроцессор­ных систем с общей памятью и с передачей сообщений. Теперь мы кратко рас­смотрим два этих типа систем с точки зрения программиста, который разрабаты­вает приложение, поддерживающее параллельную обработку. (читать далее...)

стр. 66 67 68 69 70 71 72 73 74

Производительность мультипроцессорных систем

Эта глава посвящена архитектуре систем, в которых время выполнения больших приложений сокращается за счет использования более чем одного процессора. Са­мой важной характеристикой производительности такой системы является пара­метр, определяющий повышение быстродействия работы приложений по сравне­нию с однопроцессорной системой. (читать далее...)

стр. 75 76 77 78 79 80 81 82

Использование технологии параллельного программирования MPI-2

Введение

Существуют задачи, не решаемые на серийных персональных компьютерах за приемлемое время[1], к примеру прогнозирование погоды, моделирование процессов разрушения в механике (crash-тесты). уровень 2: средства автоматизированного распараллеливания (Adaptor, Bert77) уровень 1: коммуникационные библиотеки (MPI, PVM, OpenMP) уровень 0: аппаратура (SMP, MPP, Кластеры) Рис 1: Средства параллельных вычислений Для решения таких задач используют многопроцессорные (параллельные) вычислители, множество архитектур которых весьма обширно. (читать далее...)

стр. 83 84 85

Кластерные системы и стандарт параллельного программирования MPI

Кластерные системы приобретают все большую популярность. У этого класса параллельных вычислительных систем есть существенные преимущества перед другими архитектурами вычислителей. В первую очередь это теоретическая возможность неограниченного наращивания производительности путем добавления новых узлов. (читать далее...)

стр. 86 87 88 89 90 91 92 93 94 95 96 97 98 99

Математические проблемы параллельных вычислений

Возможность быстрого решения задач на вычислительной технике параллельной архитектуры вынуждает пользователей изменять весь привычный стиль взаимодействия с компьютерами. По сравнению, например, с персональными компьютерами и рабочими станциями меняется практически всё: применяются другие языки программирования, видоизменяется большинство алгоритмов, от пользователей требуется предоставление многочисленных нестандартных и трудно добываемых характеристик решаемых задач, интерфейс перестает быть дружественным и т.п (читать далее...)

стр. 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122