Category: компьютеры

Category was added automatically. Read all entries about "компьютеры".

v3

Сим официально всех уведомляю, что группа #CyberHunta завершила свою деятельность.


Sean Brian Townsend
Сим официально всех уведомляю, что группа #CyberHunta завершила свою деятельность. Любые новые заявления от их имени - ложь и подделка. Хоть их сайт и выключен, тем не менее многие их разработки продолжают работать прямо сейчас. Хороший взлом никогда не заканчивается. Мы в Ukrainian Cyber Alliance благодарны нашим коллегам за все замечательные акции, и уверяем, что мы останавливаться не собираемся.

Подумайте сами, может ли здравомыслящий человек расчитывать на то, что с бандитской федерацией можно договориться? Забордюрные раки никогда не были договороспособными. Их устраивает только "мир" на их условиях https://bit.ly/39LZqOM , "русский мир" в котором нет места свободе и достоинству, и сегодня они подтвердили сию нехитрую мысль в очередной раз.

Должны ли мы бояться россиян, испытывать так называемую "русофобию"? Ни в коем случае. Не нужно бояться врага, как бы отвратителен он ни был в своих противоестественных устремлениях. И уж тем более стремиться к миру на их условиях? Никогда. У нас есть что противопоставить одичалым. Просто так случается, что секретная информация появляется в прессе, агентов с фальшивыми документами задерживают пограничники. Ломаются компьютеры и пропадает связь.

На России две беды, третьей будешь?

Если вы можете помочь в в развале, разломе, гниении и разложении Российской Федерации и готовы к взаимодействию, пишите. У нас есть цель - победа в войне. Нам нужна победа, а не позорный мир. Сразу предупреждаю, что мы не говорим что кому делать и не занимаемся обучением. Готов?

ping@cyber.org.ua

Для тех кто хочет помочь другим способом, например деньгами, есть такой вариант:

BTC 19fMSv8ULjoBR7UNgNGuTrqoQmwiZEa63v

Collapse )
v3

Пока в предыдущем посте догорают элитные скрипты Киберполиции


Sean Brian Townsend
Пока в предыдущем посте догорают элитные скрипты Киберполиции, подвезли новостей от "анонимных представителей госпецсвязи", решившихся подать голос на срачегонную тему блокчейнов: «Главным преимуществом разработанного прототипа является имплементация отечественных криптографических стандартов ДСТУ 4145:2002, ДСТУ 7564:2014, ДСТУ 7624:2014 и ДСТУ 8845:2019, устойчивых и в условиях постквантового периода», — рассказали ForkLog - культовый журнал о криптовалютах и блокчейне представители. Или на человеческом языке: эллиптические кривые, хеши, Калина, потоковый симметричный шифр. На постквантовые алгоритмы в Украине стандарта пока нет. Международного стандарта тоже пока нет, к новым алгоритмам только присматриваются.

С сожалением вынужден констатировать, что о "квантумных" (как говорит Дубилет) компьютерах и их возможностях у людей самые смутные представления, эдакая "серебряная пуля", которая пребывая в суперпозиции решает все задачи одновременно, что мягко говоря совсем не так. Начнем с того, что квантовый компьютер способный решить хоть какую-то осмысленную задачу ещё только предстоит сделать. "Квантовое превосходство" Гугла, чип из 54 кубитов, из которых один битый, и чип ничего не вычисляет, а только показывает что в нем действительно внутри кубиты, а не макароны. (без сомнения - достижение, но чтобы сделать именно компьютер потребуются годы, если не десятилетия)

Во-вторых, эллиптические кривые уязвимы с точки зрения квантовых компьютеров и даже более уязвимы чем RSA (как любезно подсказывает Википедия для взлома 256-битных ключей ECC и 2048-битных RSA алгоритмом Шора потребуется 2330 и 4098 кубитов, а так же 126*10^9 и 5*10^12 вентилей Тоффоли, соответственно. Сравните с современными процессорами и подумайте что это значит), а вот симметричные шифры для квантового компьютера неуязвимы даже в теории, только вот блокчейн-то как раз строится на асимметричном шифровании.

Небольшое отступление. Симметричный шифр можно представить как "черный ящик" с входом и выходом, натравить на него квантовый алгоритм Гровера, и найти соответствие входов и выходов за корень квадратный от количества вариантов (для шифров: 2 с показателем степени равным длине ключа), то есть уровень безопасности снижается вдвое. Для 256-битного ключа, уровень безопасности упадёт до 128 бит, что находится далеко за пределами вычислений. Это много, очень много. Более того, существует доказательство, что алгоритм оптимален и ничего лучше, если в шифре нет уязвимостей, придумать невозможно. Законы математики нельзя оспорить в суде. AES и его брат близнец Калина, и так неуязвимы для квантовых компьютеров, но только на блокчейнизацию это не влияет.

Вернёмся к спец. связи, пытающейся встать на путь исправления весьма своеобразным способом. То есть мало того, что они попросту спиздели и перечисленные алгоритмы не являются постквантовыми, так они еще имеют наглость утверждать, что "технология может быть использована для проведения различных голосований", что есть тяжелая ересь. https://tyzhden.ua/Politics/233970 Выборы таким способом провести нельзя (онлайн-платформы не обеспечивают необходимых свойств, особенно в стране с непреходящим переходным периодом), а открытые голосования гораздо проще проводить без блокчейна. Как удачно подметил Dmitrij Kovalevskij, попытки прикрутить к чему-нибудь блокчейн, напоминают варку супа из топора. С лунатиками из минцифры всё давно понятно, но связистам-то всё это зачем?

Collapse )

v3

СУПЕРКОМПЬЮТЕРЫ: ВЧЕРА, СЕГОДНЯ, ЗАВТРА


№5, 2000
У большинства людей слово "компьютер" ассоциируется в первую очередь с персоналкой, которую можно увидеть сегодня не только в любом офисе, но и во многих квартирах. В самом деле, мы живем в эпоху, когда персональный компьютер вошел буквально в каждый дом. Однако не стоит забывать, что ПК - это лишь часть компьютерного мира, где существуют гораздо более мощные и сложные вычислительные системы, недоступные рядовому пользователю. Многие, наверно, слышали о компьютере по имени Deep Blue, который в 1997 году обыграл самого Гарри Каспарова. Интуитивно понятно, что такая машина не могла быть простой персоналкой. Другой пример - отечественный компьютер МВС-1000 производительностью 200 миллиардов операций в секунду, недавно установленный в Межведомственном суперкомпьютерном центре в Москве. Кроме того, в прессе время от времени появляются сообщения о нелегальных поставках в Россию вычислительной техники, попадающей под эмбарго американского правительства.

Открытие межведомственного суперкомпьютерного центра в Президиуме Российской академии наук. На переднем плане 16-процессорный суперкомпьютер Hewlett-Packard V2250.

ASCI RED, детище программы Accelerated Strategic Computing Initiative, - самый мощный на сегодняшний день компьютер.

CRAY T3E - массивно-параллельный компьютер фирмы Тега Computer Company.

Вычислительный кластер Московского государственного университета им. М. В. Ломоносова - минимальная стоимость, суперкомпьютерная производительность. В настоящий момент это самая мощная вычислительная система, установленная в вузе России.

Наука и жизнь // Иллюстрации
Подобные компьютеры для многих так и остаются тайной за семью печатями, окруженной ореолом ассоциаций с чем-то очень большим: огромные размеры, сверхсложные задачи, крупные фирмы и компании, невероятные скорости работы и т.д. Одним словом, супер-ЭВМ, что-то далекое и недоступное. Между тем, если вам хотя бы раз приходилось пользоваться услугами серьезных поисковых систем в Интернете (см. "Наука и жизнь" № 11, 1999 г.), вы, сами того не подозревая, имели дело с одним из приложений суперкомпьютерных технологий.
Доктор физико-математических наук В. ВОЕВОДИН, заместитель директора Научно-исследовательского вычислительного центра МГУ им. М. В. Ломоносова.
ЧТО ТАКОЕ СУПЕРКОМПЬЮТЕР
Считается, что супер-ЭВМ - это компьютеры с максимальной производительностью. Однако быстрое развитие компьютерной индустрии делает это понятие весьма и весьма относительным: то, что десять лет назад можно было назвать суперкомпьютером, сегодня под это определение уже не подпадает. Производительность первых супер-ЭВМ начала 70-х годов была сравнима с производительностью современных ПК на базе традиционных процессоров Pentium. По сегодняшним меркам ни те, ни другие к суперкомпьютерам, конечно же, не относятся.
В любом компьютере все основные параметры взаимосвязаны. Трудно себе представить универсальный компьютер, имеющий высокое быстродействие и мизерную оперативную память либо огромную оперативную память и небольшой объем дисков. Отсюда простой вывод: супер-ЭВМ - это компьютер, имеющий не только максимальную производительность, но и максимальный объем оперативной и дисковой памяти в совокупности со специализированным программным обеспечением, с помощью которого этим монстром можно эффективно пользоваться.
Суперкомпьютерам не раз пытались давать универсальные определения - иногда они получались серьезными, иногда ироничными. Например, как-то предлагалось считать суперкомпьютером машину, вес которой превышает одну тонну. Несколько лет назад был предложен и такой вариант: суперкомпьютер - это устройство, сводящее проблему вычислений к проблеме ввода/вывода. В самом деле, задачи, которые раньше вычислялись очень долго, на супер-ЭВМ выполняются мгновенно, и почти все время теперь уходит на более медленные процедуры ввода и вывода данных, производящиеся, как правило, с прежней скоростью.
Так что же такое современный суперкомпьютер? Самая мощная ЭВМ на сегодняшний день - это система Intel ASCI RED, построенная по заказу Министерства энергетики США. Чтобы представить себе возможности этого суперкомпьютера, достаточно сказать, что он объединяет в себе 9632 (!) процессора Pentium Pro, имеет более 600 Гбайт оперативной памяти и общую производительность в 3200 миллиардов операций в секунду. Человеку потребовалось бы 100000 лет, чтобы даже с калькулятором выполнить все те операции, которые этот компьютер делает всего за 1 секунду!
Создать подобную вычислительную систему - все равно, что построить целый завод со своими системами охлаждения, бесперебойного питания и т.д. Понятно, что любой суперкомпьютер, даже в более умеренной конфигурации, должен стоить не один миллион долларов США: ради интереса прикиньте, сколько стоят, скажем, лишь 600 Гбайт оперативной памяти? Возникает естественный вопрос: какие задачи настолько важны, что требуются компьютеры стоимостью в несколько миллионов долларов? Или еще один: какие задачи настолько сложны, что хорошего Pentium III для их решения недостаточно?
НУЖНЫ ЛИ НАМ СУПЕРКОМПЬЮТЕРЫ?
Оказывается, существует целый ряд жизненно важных проблем, которые просто невозможно решать без использования суперкомпьютерных технологий.
Возьмем, к примеру, США, по территории которых два раза в год проходят разрушительные торнадо. Они сметают на своем пути города, поднимают в воздух автомобили и автобусы, выводят реки из берегов, заливая тем самым гигантские территории. Борьба с торнадо - существенная часть американского бюджета. Только штат Флорида, который находится недалеко от тех мест, где эти смерчи рождаются, за последние годы потратил более 50 миллиардов долларов на экстренные меры по спасению людей. Правительство не жалеет денег на внедрение технологий, которые позволили бы предсказывать появление торнадо и определять, куда он направится.
Как рассчитать торнадо? Очевидно, что для этого надо решить задачу о локальном изменении погоды, то есть задачу о движении масс воздуха и распределении тепла в неком регионе. Принципиально это несложно, однако на практике возникают две проблемы. Проблема первая: чтобы заметить появление смерча, надо проводить расчет на характерных для его образования размерах, то есть на расстояниях порядка двух километров. Вторая трудность связана с правильным заданием начальных и граничных условий. Дело в том, что температура на границах интересующего вас региона зависит от того, что делается в соседних регионах. Рассуждая дальше, легко убедиться, что мы не можем решить задачу о смерче, не имея данных о климате на всей Земле. Климат на планете рассчитать можно, что и делается каждый день во всех странах для составления среднесрочных прогнозов погоды. Однако имеющиеся ресурсы позволяют вести расчеты лишь с очень большим шагом - десятки и сотни километров. Ясно, что к предсказанию смерчей такой прогноз не имеет никакого отношения.
Необходимо совместить две, казалось бы, плохо совместимые задачи: глобальный расчет, где шаг очень большой, и локальный, где шаг очень маленький. Сделать это можно, но лишь собрав в кулаке действительно фантастические вычислительные ресурсы. Дополнительная трудность состоит еще и в том, что вычисления не должны продолжаться более 4 часов, так как за 5 часов картина погоды смазывается совершенно, и все, что вы считаете, уже не имеет никакого отношения к реальности. Нужно не только обработать гигантский объем данных, но и сделать это достаточно быстро. Такое под силу лишь суперкомпьютерам.
Предсказание погоды - далеко не единственный пример использования суперкомпьютеров. Сегодня без них не обойтись в сейсморазведке, нефте- и газодобывающей промышленности, автомобилестроении, проектировании электронных устройств, фармакологии, синтезе новых материалов и многих других отраслях.
Так, по данным компании Ford, для выполнения crash-тестов, при которых реальные автомобили разбиваются о бетонную стену с одновременным замером необходимых параметров, со съемкой и последующей обработкой результатов, ей понадобилось бы от 10 до 150 прототипов для каждой новой модели. При этом общие затраты составили бы от 4 до 60 миллионов долларов. Использование суперкомпьютеров позволило сократить число прототипов на одну треть.
Известной фирме DuPont суперкомпьютеры помогли синтезировать материал, заменяющий хлорофлюорокарбон. Нужно было найти материал, имеющий те же положительные качества: невоспламеняемость, стойкость к коррозии и низкую токсичность, но без вредного воздействия на озоновый слой Земли. За одну неделю были проведены необходимые расчеты на суперкомпьютере с общими затратами около 5 тысяч долларов. По оценкам специалистов DuPont, использование традиционных экспериментальных методов исследований потребовало бы 50 тысяч долларов и около трех месяцев работы - и это без учета времени, необходимого на синтез и очистку требуемого количества вещества.
ПОЧЕМУ СУПЕРКОМПЬЮТЕРЫ СЧИТАЮТ ТАК БЫСТРО?
Итак, мы видим, что без суперкомпьютеров сегодня действительно не обойтись. Осталось прояснить еще один вопрос: почему они считают так быстро? Это может быть связано, во-первых, с развитием элементной базы и, во-вторых, с использованием новых решений в архитектуре компьютеров.
Попробуем разобраться, какой из этих факторов оказывается решающим для достижения рекордной производительности. Обратимся к известным историческим фактам. На одном из первых компьютеров мира EDSAC, появившемся в 1949 году в Кембридже и имевшем время такта 2 микросекунды (2·10-6 секунды), можно было выполнить 2n арифметических операций за 18n миллисекунд, то есть в среднем 100 арифметических операций в секунду. Сравним с одним вычислительным узлом современного суперкомпьютера Hewlett-Packard V2600: время такта приблизительно 1,8 наносекунды (1,8·10-9 секунды), а пиковая производительность - около 77 миллиардов арифметических операций в секунду.
Что же получается? За полвека производительность компьютеров выросла более чем в семьсот миллионов раз. При этом выигрыш в быстродействии, связанный с уменьшением времени такта с 2 микросекунд до 1,8 наносекунды, составляет лишь около 1000 раз. Откуда же взялось остальное? Ответ очевиден - за счет использования новых решений в архитектуре компьютеров. Основное место среди них занимает принцип параллельной обработки данных, воплощающий идею одновременного (параллельного) выполнения нескольких действий.
Различают два способа параллельной обработки: собственно параллельную и конвейерную. Оба способа интуитивно абсолютно понятны, поэтому сделаем лишь небольшие пояснения.
Параллельная обработка
Предположим для простоты, что некое устройство выполняет одну операцию за один такт. В этом случае тысячу операций такое устройство выполнит за тысячу тактов. Если имеется пять таких же независимых устройств, способных работать одновременно, то ту же тысячу операций система из пяти устройств может выполнить уже не за тысячу, а за двести тактов. Аналогично система из N устройств ту же работу выполнит за 1000/N тактов. Подобные примеры можно найти и в жизни: если один солдат выкопает траншею за 10 часов, то рота солдат из пятидесяти человек с такими же способностями, работая одновременно, справится с той же работой за 12 минут- принцип параллельности в действии!
Кстати, пионером в параллельной обработке потоков данных был академик А. А. Самарский, выполнявший в начале 50-х годов расчеты, необходимые для моделирования ядерных взрывов. Самарский решил эту задачу методом сеток, посадив несколько десятков барышень с арифмометрами за столы (узлы сетки). Барышни передавали данные одна другой просто на словах и откладывали необходимые цифры на арифмометрах. Таким образом, в частности, была рассчитана эволюция взрывной волны. Работы было много, барышни уставали, а Александр Андреевич ходил между ними и подбадривал. Так создали, можно сказать, первую параллельную систему. Хотя расчеты водородной бомбы провели мастерски, точность их оказалась очень низкой, потому что узлов в используемой сетке было мало, а время счета получалось слишком большим.
Конвейерная обработка
Что необходимо для сложения двух вещественных чисел, представленных в форме с плавающей запятой? Целое множество мелких операций, таких, как сравнение порядков, выравнивание порядков, сложение мантисс, нормализация и т.п. Процессоры первых компьютеров выполняли все эти "микрооперации" для каждой пары слагаемых последовательно, одну за другой, до тех пор, пока не доходили до окончательного результата, и лишь после этого переходили к обработке следующей пары слагаемых.
Идея конвейерной обработки заключается в расчленении операции на отдельные этапы, или, как это принято называть, ступени конвейера. Каждая ступень, выполнив свою работу, передает результат следующей ступени, одновременно принимая новую порцию входных данных. Получается очевидный выигрыш в скорости обработки. В самом деле, предположим, что в операции сложения можно выделить пять микроопераций, каждая из которых выполняется за один такт работы компьютера. Если есть одно неделимое последовательное устройство сложения, то 100 пар аргументов оно обработает за 500 тактов. Если теперь каждую микрооперацию преобразовать в отдельную ступень конвейерного устройства, то на пятом такте на разной стадии обработки будут находиться первые пять пар аргументов, и далее конвейерное устройство будет выдавать результат очередного сложения каждый такт. Очевидно, что весь набор из ста пар слагаемых будет обработан за 104 единицы времени - ускорение по сравнению с последовательным устройством почти в пять раз (по числу ступеней конвейера).
Идеи параллельной обработки появились очень давно. Изначально они внедрялись в самых передовых, а потому единичных компьютерах своего времени. Затем после должной отработки технологии и удешевления производства они спускались в компьютеры среднего класса, и наконец сегодня все это в полном объеме воплощается в рабочих станциях и персональных компьютерах. Все современные микропроцессоры, будь то Pentium III или РА-8600, Е2К или Power2 SuperChip, используют тот или иной вид параллельной обработки.
Для того чтобы лишний раз убедиться, что все новое - это хорошо забытое старое, достаточно лишь нескольких примеров. Уже в 1961 году создается компьютер IBM STRETCH, имеющий две принципиально важные особенности: опережающий просмотр вперед для выборки команд (при котором одновременно с текущей считываются команды, выполняемые позднее) и расслоение памяти на два банка - реализация параллелизма при работе с памятью. В 1963 году в Манчестерском университете разработан компьютер ATLAS, использующий конвейерный принцип выполнения команд. Выполнение команд разбито на четыре стадии: выборка команды, вычисление адреса операнда, выборка операнда и выполнение операции. Это позволило уменьшить время выполнения команд в среднем с 6 до 1,6 микросекунды. В1969 году Control Data Corporation выпускает компьютер CDC-7600 с восемью независимыми конвейерными функциональными устройствами.
СОВРЕМЕННЫЕ СУПЕРКОМПЬЮТЕРЫ
А что же сейчас используют в мире? По каким направлениям идет развитие высокопроизводительной вычислительной техники? Таких направлений четыре.
Векторно-конвейерные компьютеры
Две главные особенности таких машин: наличие конвейерных функциональных устройств и набора векторных команд. В отличие от обычных команд векторные оперируют целыми массивами независимых данных, то есть команда вида А=В+С может означать сложение двух массивов, а не двух чисел. Характерный представитель данного направления - семейство векторно-конвейерных компьютеров CRAY, куда входят, например, CRAY EL, CRAY J90, CRAY T90 (в марте этого года американская компания TERA перекупила подразделение CRAY у компании Silicon Graphics, Inc.).
Массивно-параллельные компьютеры с распределенной памятью
Идея построения компьютеров этого класса тривиальна: серийные микропроцессоры соединяются с помощью сетевого оборудования - вот и все. Достоинств у такой архитектуры масса: если нужна высокая производительность, то можно добавить процессоры, а если ограничены финансы или заранее известна требуемая вычислительная мощность, то легко подобрать оптимальную конфигурацию. К этому же классу можно отнести и простые сети компьютеров, которые сегодня все чаще рассматриваются как дешевая альтернатива крайне дорогим суперкомпьютерам. (Правда, написать эффективную параллельную программу для таких сетей довольно сложно, а в некоторых случаях просто невозможно). К массивно-параллельным можно отнести компьютеры Intel Paragon, ASCI RED, IBM SP1, Parsytec, в какой-то степени IBM SP2 и CRAY T3D/T3E.
Параллельные компьютеры с общей памятью
Вся оперативная память в таких компьютерах разделяется несколькими одинаковыми процессорами, обращающимися к общей дисковой памяти. Проблем с обменом данными между процессорами и синхронизацией их работы практически не возникает. Вместе с тем главный недостаток такой архитектуры состоит в том, что по чисто техническим причинам число процессоров, имеющих доступ к общей памяти, нельзя сделать большим. В данное направление суперкомпьютеров входят многие современные SMP-компьютеры (Symmetric Multi Processing), например сервер НР9000 N-class или Sun Ultra Enterprise 5000.
Кластерные компьютеры
Этот класс суперкомпьютеров, строго говоря, нельзя назвать самостоятельным, скорее, он представляет собой комбинации предыдущих трех. Из нескольких процессоров, традиционных или векторно-конвейерных, и общей для них памяти формируется вычислительный узел. Если мощности одного узла недостаточно, создается кластер из нескольких узлов, объединенных высокоскоростными каналами. По такому принципу построены CRAY SV1, HP Exemplar, Sun StarFire, NEC SX-5, последние модели IBM SP2 и другие. В настоящее время именно это направление считается наиболее перспективным.
Два раза в год составляется список пятисот самых мощных вычислительных установок мира (его можно посмотреть в Интернете по адресу http://parallel.ru/top500.html). Согласно последней редакции списка top500, вышедшей в ноябре прошлого года, первое место занимает массивно-параллельный компьютер Intel ASCI Red. На второй позиции стоит компьютер ASCI Blue-Pacific от IBM, объединяющий 5808 процессоров PowerPC 604e/332MHz. Оба эти суперкомпьютера созданы в рамках американской национальной программы Advanced Strategic Computing Initiative, аббревиатура которой и присутствует в названии. Производительность компьютера, стоящего на последнем, 500-м, месте в списке самых мощных, составляет 33,4 миллиарда операций в секунду.
Если мощность существующих компьютеров поражает, то что говорить о планах. В декабре 1999 года корпорация IBM сообщила о новом исследовательском проекте общей стоимостью около 100 миллионов долларов, цель которого - построение суперкомпьютера, в 500 раз превосходящего по производительности самые мощные компьютеры сегодняшнего дня. Компьютер, имеющий условное название Blue Gene, будет иметь производительность порядка 1 PETAFLOPS (1015 операций в секунду) и использоваться для изучения свойств белковых молекул. Предполагается, что каждый отдельный процессор Blue Gene будет иметь производительность порядка 1 GFLOPS (109 операций в секунду). 32 подобных процессора будут помещены на одну микросхему. Компактная плата размером 2x2 фута будет вмещать 64 микросхемы, что по производительности не уступает упоминавшимся ранее суперкомпьютерам ASCI, занимающим площадь 8000 квадратных метров. Более того, 8 таких плат будут помещены в 6-футовую стойку, а вся система будет состоять из 64 стоек с суммарной производительностью 1 PFLOPS. Фантастика!
Вычислительный кластер Московского государственного университета им. М. В. Ломоносова - минимальная стоимость, суперкомпьютерная производительность. В настоящий момент это самая мощная вычислительная система, установленная в вузе России.
СУПЕРКОМПЬЮТЕРЫ В РОССИИ
Идеи построения собственных суперкомпьютерных систем существовали в России всегда. Еще в 1966 году М.А.Карцев выдвинул идею создания многомашинного вычислительного комплекса М-9 производительностью около миллиарда операций в секунду. В то время ни одна из машин мира не работала с такой скоростью. Однако, несмотря на положительную оценку министерства, комплекс М-9 промышленного освоения не получил.
Работы по созданию суперкомпьютерных систем и суперкомпьютерных центров ведутся в России и сейчас. Наиболее известна линия отечественных суперкомпьютеров МВС-1000, создаваемая в кооперации научно-исследовательских институтов Российской академии наук и промышленности. Супер-ЭВМ линии МВС-1000 - это мультипроцессорный массив, объединенный с внешней дисковой памятью, устройствами ввода/вывода информации и управляющим компьютером. Компьютеры МВС-1000 используют микропроцессоры Alpha 21164 (разработка фирмы DEC-Compaq) с производительностью до 1-2 миллиардов операций в секунду и оперативной памятью объемом 0,1-2 Гбайта.
Спектр научных и практических задач, решаемых на таком компьютере, может быть очень велик: расчет трехмерных нестационарных течений вязкосжимаемого газа, расчеты течений с локальными тепловыми неоднородностями в потоке, моделирование структурообразования и динамики молекулярных и биомолекулярных систем, решение задач линейных дифференциальных игр, расчет деформаций твердых тел с учетом процессов разрушения и многие другие. Одна из самых мощных систем линии МВС-1000, установленная в Межведомственном суперкомпьютерном центре, содержит 96 процессоров.
В последнее время в России, также как и во всем мире, активно используется кластерный подход к построению суперкомпьютеров. Покупаются стандартные компьютеры и рабочие станции, которые с помощью стандартных сетевых средств объединяются в параллельную вычислительную систему. По такому пути пошел, и, надо сказать, успешно, Научно-исследовательский вычислительный центр Московского государственного университета им. М.В.Ломоносова, создавший кластер из 12 двухпроцессорных серверов "Эксимер" на базе Intel Pentium III/500MHz (в сумме 24 процессора, более 3 Гбайт оперативной памяти, 66 Гбайт дисковой памяти). Сегодня это крупнейшая вычислительная установка в вузе России, предназначенная для поддержки фундаментальных научных исследований и образования. При минимальной стоимости вычислительный кластер НИВЦ МГУ показывает производительность 5,7 миллиарда операций в секунду при решении системы линейных алгебраических уравнений с плотной матрицей размером 16000x16000! В будущем планируется значительно увеличить мощность кластера как за счет добавления новых процессоров, так и за счет модернизации вычислительных узлов.
ВМЕСТО ЗАКЛЮЧЕНИЯ
К сожалению, чудеса в нашей жизни случаются редко. Гигантская производительность параллельных компьютеров и супер-ЭВМ с лихвой компенсируется сложностью их использования. Да что там использование, иногда даже вопросы, возникающие вокруг суперкомпьютеров, ставят в тупик. Как вы думаете, верно ли утверждение: чем мощнее компьютер, тем быстрее на нем можно решить данную задачу? Ну, конечно же, нет... Простой бытовой пример. Если один землекоп выкопает яму за 1 час, то два землекопа справятся с задачей за 30 мин - в это еще можно поверить. А за сколько времени эту работу сделают 60 землекопов? Неужели за 1 минуту? Конечно же, нет! Начиная с некоторого момента они будут просто мешать друг другу, не ускоряя, а замедляя процесс. Так же и в компьютерах: если задача слишком мала, то мы будем дольше заниматься распределением работы, синхронизацией процессов, сборкой результатов и т. п., чем непосредственно полезной деятельностью.
Но все вопросы, сопровождающие суперкомпьютер, конечно же, решаются. Да, использовать суперкомпьютеры сложнее, чем персоналку: нужны дополнительные знания и технологии, высококвалифицированные специалисты, более сложная информационная инфраструктура. Написать эффективную параллельную программу намного сложнее, чем последовательную, да и вообще создание программного обеспечения для параллельных компьютеров - это центральная проблема суперкомпьютерных вычислений. Но без супер-ЭВМ сегодня не обойтись, и отрадно, что в нашей стране есть понимание необходимости развития этих технологий. Так, в ноябре прошлого года в Президиуме Российской академии наук состоялось открытие межведомственного суперкомпьютерного центра. В процессе становления суперкомпьютерные центры в Дубне, Черноголовке, Институте прикладной математики РАН им. М. В. Келдыша, Институте математического моделирования РАН, Московском государственном университете им. М. В. Ломоносова. Создана и развивается линия отечественных суперкомпьютеров МВС-1000. Активно разворачивает свою деятельность Информационно-аналитический центр по параллельным вычислениям в сети Интернет WWW.PARALLEL.RU, осуществляющий информационную поддержку многих российских проектов. А иначе и нельзя. Параллельные вычисления и параллельные компьютеры - это реальность, и это уже навсегда.
Collapse )
v3

Супер-ЭВМ

Супер-ЭВМ это достаточно гибкий и очень широкий термин. В общем понимании супер-ЭВМ это компьютер значительно мощнее всех имеющихся доступных на рынке компьютеров. Некоторые инженеры, шутливо, называют суперкомпьютером любой компьютер масса которого превосходит одну тонну. И хотя большинство современных супер-ЭВМ действительно весят более тонны. Не всякую ЭВМ можно назвать «супер», даже если она весит более тонны. Марк-1, Эниак – тоже тяжеловесы, но суперкомпьютерами не считаются даже для своего времени.
Скорость технического прогресса настолько велика, что сегодняшняя супер-ЭВМ через 5 -10 лет будет уступать домашнему компьютеру. Термин супервычисления появился еще 20-х годах прошлого века, а термин супер-ЭВМ в 60-х годах. Но получил широкое распространение во многом благодоря Сеймура Крея и его супер-ЭВМ Cray-1, Cray-2. Хотя сам Сеймур Крей не предпочитает использовать данный термин. Называет свои машины, просто компьютер.
Cray-1 принято считать одним из первых супер-ЭВМ. Он появился в 1974 году. В процессорах компьютера был огромный, по тем временам, набор регистров. Которые разделялись на группы. Каждая группа имело свое собственное функциональное назначение. Блок адресных регистров который отвечал за адресацию в памяти ЭВМ. Блок векторных регистров, блок скалярных регистров. Производительность супер-ЭВМ составляла 180 миллионов операций в секунду над числами с плавающей точкой. Использовались 32 разрядные команды. Это учитывая то, что современники данного компьютера только начинали переходить от 8 разрядных команд к 16 разрядным.


Сборка компьютера Cray-1

Компьютер Cray-2
Компьютеры Крея применялись в правительственных организациях, промышленных и научно исследовательских центрах. Многие суперкомпьютером называли тот компьютер который был создан Сеймуром Крем.
У Крея было много конкурирующих компаний. Но многие из них так и не достигли успеха. В 90-х годах эти фирмы начали банкротится. И нишу супер-ЭВМ заняли компьютерные гиганты, типа IBM. Компания Крея Cray Inc. До сих пор является одним из ведущих производителей суперкомпьютеров.
В самом начале появления супер-ЭВМ было связано с потребностью быстрой обработки больших массивов данных и сложных математически - аналитических вычислениях. Поэтому первые суперкомпьютеры по своей архитектуре мало отличались от обычных ЭВМ. Только их мощность была во много раз больше стандартных рабочих станций. Изначально супер-ЭВМ оснащались векторными процессорами, обычные скалярными. К 80-м перешли на параллельную работу нескольких векторных процессоров. Но данный путь развития оказался не рациональным. Супер-ЭВМ перешли на параллельно работающие скалярные процессоры.
Массивно-параллельные процессоры стали базой для супер-ЭВМ. Тысячи процессорных элементов объединялись создавая мощную платформу для вычислений. Большинство параллельно работающих процессоров создавались на основе архитектуры RISC. RISC (Reduced Instruction Set Computing) – вычисления с сокращенным набором команд. Под этим термином производители процессоров понимают концепцию, где более простые инструкции выполняться быстрее. Данный метод позволяет снизить себестоимость производства процессоров. Одновременно увеличить их производительность.
Идея создать RISC – процессор. Пришла IBM. Еще в 70-х годах они заметили, что многие архитектурные и функциональные особенности не используются разработчиками программного обеспечения. К тому же одни из первых компиляторов языков высокого уровня не используют многие инструкции стандартных процессоров. Как следствие из этого. Программы написанные на таких компиляторах, не рационально используют процессорные ресурсы. Получается, что часто процессор работает в холостую. Выполнять сложные команды – простыми инструкциями процессора. Значительно эффективнее, чем создавать в процессоре сложные инструкции для таких команд.
Потребность в мощных вычислительных решениях быстро возрастала. Супер-ЭВМ слишком дорогие. Требовалась альтернатива. И на смену им пришли кластеры. Но и на сегодняшний день мощные компьютеры называют суперкомпьютерами.
Кластер это множество серверов объеденных в сеть и работают над одной задачей. Эта группа серверов обладает высокой производительностью. Во много раз больше чем то же самое количество серверов которые работали бы отдельно. Кластер дает высокую надежность. Выход из строя одного сервера не приведет к аварийной остановке всей системы, а лишь не много отразиться на ее производительности. Возможно произвести замену сервера в кластере без остановки всей системы. Не нужно сразу выкладывать огромные суммы за супер-ЭВМ. Кластер можно наращивать постепенно, что значительно амортизирует затраты предприятия.
Объединение серверов в кластер реализуется программно. Существует менеджер кластеров. Устанавливается на основной сервер и управляет всеми остальными узлами кластера. Клиентское программное обеспечение устанавливается на остальные серверы кластера.
Супер-ЭВМ отличаются от серверов которые необходимы для оперативной обработки запросов. Они отличаются и от мэйнфреймов, которые так же обладают  высокой производительностью но служат для одновременной работы с множеством пользователей. Суперкомпьютеры могут применяться и для работы с одной программой. Которая требует мощных ресурсов. Это моделирование погоды, расчет техпроцесса на производстве.

Collapse )
v3

История компьютеров Эльбрус

10 октября 2013
Мало кто знает, но у истоков создания самого известного в мире процессора Intel Pentium были и советские специалисты и инженеры. В свое время СССР добился достаточно серьезных достижений в создании компьютерной техники. Примером этому может служить серия советских суперкомпьютеров «Эльбрус», которые были созданы в Институте точной механики и вычислительной техники (ИТМиВТ) в 1970-1990-х годах прошлого века, это же название носит серия микропроцессоров и систем, созданных на их основе и выпускаемых сегодня ЗАО МЦСТ (Московский центр SPARC-технологий).
При этом история «Эльбруса» достаточно обширна. Работы над первым компьютером с таким названием велись с 1973 по 1978 год в ИТМиВТ им. Лебедева, руководил этими работами Б. С. Бурцев, разработка велась при участии Бориса Бабаяна, который являлся одним из замов главного конструктора. В то время основным заказчиком данной продукции, конечно же, выступали военные.
Первый компьютер «Эльбрус» обладал модульной архитектурой и мог включать в себя от 1 до 10 процессоров на базе схем средней интеграции. Быстродействие данной машины достигало 15 миллионов операций в секунду. Объем оперативной памяти, которая была общей для всех 10 процессоров, составлял до 2 в 20 степени машинных слов или, если применять принятые сейчас обозначения, 64 Мб. Однако самым интересным в «Эльбрусе-1» была именно его архитектура. Созданный в СССР суперкомпьютер стал первой в мире коммерческой ЭВМ, которая применяла суперскалярную архитектуру. Ее массовое применение за рубежом началось только в 90-х годах прошлого века с появлением на рынке доступных процессоров Intel Pentium.
Позднее выяснилось, что подобные разработки существовали еще до «Эльбруса», ими занималась компания IBM, но работы по данным проектам не были завершены и так и не привели к созданию конечного коммерческого продукта. По словам В. С. Бурцева, являвшегося главным конструктором «Эльбруса», советские инженеры старались применять самый передовой опыт как отечественных, так и зарубежных разработчиков. На архитектуру компьютеров «Эльбрус» повлияли не только компьютеры компании Burroughs, но и разработки такой известной фирмы, как Hewlett-Packard, а также опыт разработчиков БЭСМ-6.

При этом немалая часть разработок была оригинальной, к ним относится и суперскалярная архитектура. Кроме этого для организации передачи потоков данных между периферийными устройствами и оперативной памятью в компьютере могли применяться специальные процессоры ввода-вывода. Таких процессоров в составе системы могло быть до 4-х штук, они работали параллельно с центральным процессором и обладали своей собственной памятью.
Следующим этапом работ явилось создание компьютера «Эльбрус-2». Эти ЭВМ отправились в серийное производство в 1985 году. По своей внутренней архитектуре они не сильно отличались от «Эльбрус-1», но применяли новую элементную базу, что позволило увеличить максимальную производительность до 125 млн. операций в секунду. Объем оперативной памяти компьютера увеличился до 16 млн. 72-разрядных слов или 144 Мб. Максимальная пропускная способность каналов ввода-вывода «Эльбруса-2» составляла 120 Мбайт/с.
Данные компьютеры активно применялись в СССР в областях, которые требовали большого количества вычислений, в первую очередь в оборонной отрасли. ЭВМ «Эльбрус-2» эксплуатировались в ядерных исследовательских центрах в Челябинске-70 и в Арзамасе-16 в ЦУПе, наконец, именно этот комплекс, начиная с 1991 года, применялся в системе ПРО А-135, а также на других военных объектах страны.
Помимо двух перечисленных выше компьютеров, также выпускался ЭВМ общего назначения «Эльбрус 1-КБ», создание данного компьютера было окончено в 1988 году. До 1992 года было произведено 60 таких ЭВМ. Они были основаны на технологиях «Эльбруса-2» и применялись для замены устаревших машин БЭСМ-6. При этом между «Эльбрус 1-КБ» и БЭСМ-6 существовала полная обратная программная совместимость, которая была дополнена новыми режимами работы с увеличенной разрядностью чисел и адресов.
Создание компьютеров «Эльбрус» было по достоинству оценено руководством Советского Союза. За разработку «Эльбруса-1» многие инженеры были награждены орденами и медалями. Борис Бабаян был награжден Орденом Октябрьской революции, его коллега В. В. Бардиж – орденом Ленина. За разработку «Эльбруса-2» Бабаян с рядом своих коллег был удостоен Ленинской премии, а генеральный конструктор В. С. Бурцев и ряд других специалистов – Государственной премии.

После завершения работ над ЭВМ «Эльбрус-2» в ИТМиВТ взялись за разработку ЭВМ на базе принципиально новой процессорной архитектуры. Проект, который был назван достаточно просто – «Эльбрус-3», также значительно опередил аналогичные разработки на Западе. В «Эльбрусе-3» впервые был реализован подход, который Борис Бабаян называет «постсуперскалярным». Именно такой архитектурой в будущем обладали процессоры Intel Itanium, а также чипы компании Transmeta. Стоит отметить, что в СССР работы над данной технологией были начаты в 1986 году, а Intel, Transmeta и HP приступили к реализации работ в этом направлении лишь в середине 1990-х годов.
К сожалению, «Эльбрус-3» так никогда и не был запущен в серийное производство. Его единственный работающий экземпляр был построен в 1994 году, но в это время он был никому не нужен. Логическим продолжением работ над данным компьютером стало появление процессора «Эльбрус-2000», известного также как E2K. У российской компании имелись большие планы по серийному производству данного процессора, который должен был пойти в серию одновременно или даже еще раньше, чем Itanium. Но из-за отсутствия необходимого объема инвестиций, все данные планы не были реализованы и так и остались на бумаге.
Российский след в процессорах компании Intel
Владимир Пентковский – является выдающимся российско-американским ученым, доктором технических наук, который окончил факультет ФРТК МФТИ. Он принимал непосредственное участие в разработке процессоров Pentium III, Core 2 Duo, HAL9000, Matrix, является разработчиком высокоуровневого языка программирования Эль-76, который использовался в компьютерах «Эльбрус». С 1970 года он работал в Институте точной механики и вычислительной техники, где успел принять участие в создании суперкомпьютеров «Эльбрус-1» и «Эльбрус-2». В 1986 году Пентковский возглавил работы по созданию 32-разрядного процессора Эль-90 для «Эльбруса-3».
К 1987 году работы над созданием архитектуры нового микропроцессора были закончены, в 1990 году были выпущены первые его прототипы. В 1991 году он приступил к работам над разработкой Эль-91С, взяв за основу предыдущую версию процессора, однако финансирование данного проект было остановлено из-за развала страны. Естественно, специалист такого уровня не мог пропасть. В 1989 году Владимир Пентковский уже ездил в США в исследовательский центр компании Intel в рамках программы по обмену опытом. С 1993 года он начинает работать в компании Intel, став одним из ведущих ее инженеров, разработка знаменитых процессоров Pentium происходила при его непосредственном участии. Презентация процессора Pentium состоялась 22 марта 1993 года, примерно через несколько месяцев начали появляться первые компьютеры, построенные на их основе.

Владимир Пентковский является одним из авторов векторного (SIMD) расширения команд SSE, которое впервые было использовано в процессорах Pentium-III. Является автором более чем 50 различных патентов, многие из которых до сих пор используются в современных процессорах. В процессорах Intel Владимир Пентковский воплощал на практике знания, которые им были получены в России, многое он додумывал уже непосредственно во время разработки моделей. В 1995 году американская компания представила более совершенный продукт Pentium Pro, который по своим характеристикам напоминал процессор Эль-90. Главным архитектором данного процессора считается именно Владимир Пентковский.
В настоящее время Пентковский продолжает работать в компании Intel. Так что процессор, на котором, возможно, работает ваш персональный компьютер или ноутбук вполне может иметь российские корни и мог бы быть даже произведен в нашей стране, если бы не печально известные события 1991 года и их последствия.
«Эльбрус» все еще жив
Хотя СССР развалился, бренд «Эльбрус» все еще жив. Процессоры и готовые решения на их базе сегодня продвигает на рынке компания МЦСТ. На сегодняшний день компьютеры компании МЦСТ в основном предназначены для: военных ведомств России, стран СНГ и БРИК; индустрии гражданского производства; РЛС гражданского назначения (наземного, морского и воздушного транспорта). Для бизнеса и гражданских лиц, которым необходимы особо надежные и защищенные компьютеры. Компьютеры компании обладают различным конструкторским исполнением, разным классом защиты в зависимости от требований. Все они обладают поддержкой или возможностью работы с GPS и ГЛОНАСС в зависимости от потребностей покупателя устройства.
В настоящее время компания продвигает на рынке 2 своих основных микропроцессора и устройства на их базе. Первый из них – это Эльбрус-2С+, который является первым гибридным высокопроизводительным процессором компании МЦСТ. Процессор содержит в себе два ядра архитектуры Эльбрус и четыре ядра цифровых сигнальных процессоров (DSP) компании Элвис. Основной сферой его использования являются системы цифровой интеллектуальной обработки сигнала, к которым относят анализаторы изображений, радары и другие подобные устройства.

Вторым продуктом является микропроцессор МЦСТ R1000 (проектное название МЦСТ-4R) – четырехядерная модель, построенная на кристалле с 64-битной архитектурой SPARC v.9. Процессор работает на частоте 1 ГГц при технологических нормах выпуска 90 нм. Каждое из его ядер в состоянии декодировать и отправлять на выполнение до 2-х команд за такт. Процессор поддерживает дополнительные инструкции для выполнения упакованных и комбинированных операций, а также векторные расширения VIS1 и VIS2. К возможным областям использования процессора МЦСТ-4R, а также ПК на его основе МВС4/С, МВС4-РС относят:
Носимые малогабаритные бытовые компьютеры для применения в качестве: компьютера для ведения работы в полевых условиях, например, для проведения оперативных расчетов, подготовки документов различного назначения, хранения справочной информации, и др.;
Компьютеры автоматизированных рабочих мест операторов для применения в роли средств отображения информации, документирования выполненной работы и др.;
Терминалы контрольно-поверочной аппаратуры на технических позициях, а также в роли устройства подготовки и хранения документов, связанных с использованием сложных комплексов;
Терминалы связных и радиоэлектронных систем, носимых и передвижных комплексов аппаратуры;
Встраиваемые управляющие компьютеры для управления работой специальных объектов и решения сложных задач обработки информации в масштабе реального времени;
Мобильные отказоустойчивые серверы для создания автоматизированных систем спецназначения, в частности, автоматизированных систем органов гражданского и военного управления.
Источники информации:
-http://old.computerra.ru/hitech/34475
-http://www.koshcheev.ru/2012/08/27/intel-pentium-pentkovski
-http://www.cnews.ru/news/top/index.shtml?2008/06/30/306828
-http://www.sdelanounas.ru/blogs/9078
-http://www.mcst.ru
Collapse )
v3

Производство суперкомпьютеров в СССР

23.12.1997
Страницы истории

История одной малоизвестной разработки  -  проект “Локон”

Ни для кого не секрет, что в бывшем СССР проводились работы по созданию высокопроизводительных компьютеров, и часть проектов, например такие, как “Эльбрус”, “ПС” и “ОВС”, хорошо известны программистам и инженерам этого времени.

Макет опытного образца модуля процессора “ЛОКОН”, выполненный в 1989 году
Разработка “Эльбруса” проводилась в ИТМВТ им. С. А. Лебедева (Москва) и воплотилась в серии реальных компьютерных систем, которые нашли применение как в военной сфере, так и в научных исследованиях. Это была одна из наиболее завершенных систем, применяемая до сих пор.
Второе направление  -  “ПС” (параллельная система)  -  разрабатывалась в ИПИ АН СССР (Институт проблем информации) и привело к созданию в конце 80-х годов действующей модели. Работы были связаны с МО и во многом ориентированы на специальные классы задач.
Третье направление  -  “ОВС” (однородные вычислительные среды)  -  представляет собой другой путь развития суперкомпьютеров: построение систем из большого числа простых процессоров, когда функции обработки и хранения информации совмещаются в одном элементе и все процессорные элементы такого компьютера одинаковы. Это направление развивалось в лаборатории ИНЭУМ (Институт электронных управляющих машин Минприбора) и в ЛЭТИ (Ленинградском электротехническом институте) и носило более фундаментальный характер.
Чтобы воссоздать тогдашнюю ситуацию в области, о которой мы говорим, наверное, лучше всего привести “исторический” документ, написанный в 1991 г., отражающий состояние дел в рассматриваемой области (естественно, с существенными сокращениями).
По заказу GF Supercomputing Technology Inc.
Russia, 1....., P.O.Box. ...
Разработка супер-ЭВМ в Советском Союзе
(анализ состояния и перспективы развития, краткие тезисы аналитического обзора по заказу корпорации GFST Inc.)
В процессе реализации Советских стратегических интересов в новой военной технике и в крупных научно-технических проектах начиная с 60-х годов в СССР возникает потребность в создании мощных вычислительных средств для решения следующих задач в интересах Министерства обороны:
- обслуживание полетов космических аппаратов и обработка получаемой информации (Советская космическая программа);
- сбор и обработка спутниковой, телеметрической, радиолокационной информации в военных и гражданских целях (коммуникационные системы и средства связи);
- оперативная обработка бортовой информации и управления подвижными и удаленными объектами (военно-морские и военно-воздушные силы);
- проведение научно-технических расчетов и моделирование при конструировании новых образцов военной техники (особенно летательных аппаратов и средств морского базирования);
- проведение научно-технических расчетов и управление сложными техническими комплексами и физическим экспериментом (термоядерный синтез и т. п.).
Развитие разработок в области средств вычислительной техники базировалось в СССР на военных заказах для реализации программ управления ракетными установками и расчетов стрельб для системы оперативно-тактических, стратегических ракет и ПВО страны. С самого начала работ электронные фирмы и Заказчики были ориентированы на использование собственной элементной базы и оригинальные разработки в области архитектур и программного обеспечения. В начале этих работ не было четкого разделения на классы ЭВМ и все машины были достаточно уникальными из разряда супер-ЭВМ для своего времени.
В это время (с 1962 по 1970 годы) были реализованы оригинальные отечественые разработки (проекты “Мир”, “БЭСМ” и т. п.) на элементной базе второго поколения (микромодули и микросборки). Был накоплен опыт разработки больших систем и их применения в указанных областях.
С появлением микропроцессоров (начало 80-х годов) ситуация резко изменилась и отечественная электронная промышленность, как основа разработок, пошла по пути копирования западных аналогов, в основном таких, как разработки фирмы DEC & HP. Однако в области супер-ЭВМ такое копирование оказалось неприемлемым, как по соображениям технической сложности, так и в силу ограничений COCOM.
В это время в СССР активно развиваются собственные проекты супер-ЭВМ, как универсального (“Эльбрус”, “ПС”), так и специального назначения (“МАРС”, “МДА”). Эти разработки положили начало двум основным линиям (“Эльбрус”, “ПС”), которые начали выпускаться сначала для военных Заказчиков, а затем и проникать в сугубо гражданские отрасли науки и техники. На эти два пути развития супер-ЭВМ были выделены основные средства и организованы работы, как в рамках Академии наук СССР, так и в отраслевых НИИ и КБ. Именно такая концентрация (достаточно сказать, что в разработке и изготовлении супер-ЭВМ “Эльбрус” одновременно участвовало до 1000 организаций и 20 000 человек) сил и средств привела к тому, что, с одной стороны, эти проекты оказались реализованными, а с другой стороны, существенно затормозили работы в области супер-ЭВМ в Советском Союзе. Были “пропущены” как новые направления в области архитектур и математического обеспечения, так  и перспективные технологические решения в области микроэлектроники.
Так, в частности, массово-параллельные машины класса Loral MPP, FSP-T, многопроцессорные полносвязанные архитектуры класса Connection Mashins, транспьюттерные системы и RISC-процессоры оказались теми областями, для которых в Советском Союзе нет достаточного опыта ни в разработке архитектур, ни в математике. И здесь сказалось не столько технологическое отставание, которое традиционно было на 5 - 10 лет запрограммировано в начале 60-х годов в микроэлектронике, но, в большей степени, давление супер-ЭВМ, принятых за базовые (“ПС” и “Эльбрус”), на Заказчиков из Министерства обороны и конечных пользователей, связанное с практически нулевым финансированием конкурентных разработок и фундаментальных и поисковых работ в этой области.
Кроме чисто технических просчетов ведущих НИИ и КБ, отвечавших за все проекты супер-ЭВМ, есть более существенный фактор. Это вся система распределения заказов в части финансирования НИР и ОКР из бюджетов Министерства обороны и АН СССР. Эта система предполагает не конкурс проектов и систему экспертиз, а квотированное распределение средств между заказывающими управлениями МО и отделениями АН, которые в свою очередь “подпитывают” подведомственные НИИ и КБ через “своих” академиков. Такая система привела к тому, что большое число молодых и талантливых разработчиков, работающих в АН и вузах, были лишены возможности доводить свои идеи до реальных образцов. А общая коррумпированность и клановость в научном сообществе в качестве стимулов предлагала либо ученые звания, либо повышение по службе и загранкомандировки. В вузах приоритет отдавался не самым талантливым, а самым лояльным к политическому режиму.
В условиях сегодняшнего дефицита средств (на начало 1990 года) в стране сложилась критическая ситуация. С одной стороны, нет средств для финансирования фундаментальных исследований, с другой стороны, значительно сокращаются военные заказы (на 1991 год планируется снижение реальных затрат на НИОКР в министерстве обороны на 30 - 40%). Таким образом, к этому времени все работы по супер-ЭВМ потеряли поддержку и заказы, поскольку основные средства были использованы на поддержку текущей технологии и поддержку начатых разработок. Активное “копирование” на уровне процессоров и систем привело к тому, что большинство разработчиков вынуждено было переключиться на применение готовых решений в условиях отечественных технологических и производственных возможностей. Те немногие перспективные разработки, которые были начаты, сворачивались, а специалисты переключались на работу с ПК (персональными системами) или искали работу за рубежом.
Зарождающийся же негосударственный сектор экономики еще настолько слаб, что не смог поддержать ни науку, ни производство, да и в развитых странах поддержка стратегических НИР и ОКР  -  это прерогатива государственного заказчика: слишком велики риски и вложения в новые технологии. В этих условиях следует ожидать практически полного прекращения разработок супер-ЭВМ в СССР.
Можно сделать вывод, что появление в настоящих условиях проекта, обладающего ноу-хау в этой области, и тем более опытного образца на уровне законченного решения и соответствующего сервиса  -  маловероятно, если не сказать практически невозможно. Также маловероятно появление одного из аналогов западных супер-ЭВМ, поскольку даже изготовление процессоров типа Intel-386/486 или RTX-2000 (Harris, USA) является для российской электронной промышленности непреодолимой задачей. Не говоря уже о том, что супер-ЭВМ  -  это не просто процессор и не столько процессор. Ни одна организация в бывшем Союзе не в состоянии сегодня разработать и тем более изготовить аналог супер-ЭВМ или собственную систему с пиковой производительностью 10 GFLOPS без помощи западных фирм, обладающих опытом и высокими технологиями в этой области.
Предпосылки создания супер-ЭВМ “ЛОКОН”
Каким бы впечатляющим ни был прогресс в области персональных систем и как бы широко они ни распространялись по нашим учреждениям и квартирам, прогресс в области высоких технологий определяется новейшими решениями в архитектуре и технологии самых производительных компьютеров, т. е. супер-ЭВМ. Вчерашним рекордом производительности для компьютера сегодня обладает каждый ПК. Правда, это не имеет отношения к увеличению частоты процессора, поскольку большая часть этого ускорения в ПК тратится на обслуживание интерфейса пользователя, а не на реальные вычисления. Как уже было сказано, в бывшем Союзе велись разнообразные проекты в области высокопроизводительных компьютеров. Одной из таких разработок, мало известных широкой аудитории, да и специалистам, является проект “ЛОКОН”. Автор данной статьи был не только идеологом этого проекта, но и участвовал в нем в качестве главного конструктора от начала разработки и до создания опытного образца.
Сегодня любой студент политехнического вуза может объяснить вам, как работает компьютер. Он расскажет, что в основе всех вычислений лежит двоичная система счисления, что на уровне процессора и памяти программа превращается в язык процессора и что использовать компьютер удобно, если писать программы на языке высокого уровня типа Паскаля. И это будет правильно. Как и 50 лет назад, сегодня для создания компьютера и применения его для решения практических задач используются простые принципы построения фон-неймановских машин:
- процессор  -  это устройство для обработки единиц информации;
- память  -  это устройство для хранения единиц информации;
- программа  -  это способ описать, что должны делать процессор и память для решения конкретной задачи.
Все остальное, включая операционную систему Windows,  -  это изобретение программистов для вовлечения все большего числа пользователей в круг потребителей их продукции, с несомненно полезным результатом автоматизации многих видов деятельности  -  от бухучета до перевода с языка на язык.
Два принципиальных ограничения, известных специалистам в последние 10 лет, состоят в том, что существует физический предел микроэлектронных систем (0,3 мкм  -  сегодняшняя технология, предел лежит в районе 0,1 мкм), с одной стороны, и все большее несоответствие между мощностью процессора и сложностью решаемых им задач  -  с другой. Практика, при которой большие системы, в том числе и глобальные сети, ориентированы на такую архитектуру (процессор-память-программа), уже сегодня приводит к фатальным ошибкам в системах реального времени, поскольку от постановки задачи до отдельного бита информации  -  огромная пропасть портов, регистров, разъемов, ассемблеров, компиляторов, оболочек и прочего.
Сегодня нет систем, обладающих свойствами надежности, простоты программирования, расширяемости архитектуры и независимости от физических ограничений технологии.
Основные этапы разработки
1979 г. На основании исследований, проводимых на кафедре ВТ (вычислительной техники) ЛЭТИ, автором была защищена диссертация на тему “Системы автоматического ввода чертежно-графической информации в ЭВМ”. Основу работы составляли методы описания изображений и созданная архитектура специализированного процессора на дискретных элементах. В это же время вышла (одна из первых в СССР) работа автора по применению размытых множеств для обработки изображений. Уже тогда были известны работы по нетрадиционным подходам к решению задач распознавания: персептрон, неокогнитрон, системы искусственного интеллекта. Однако более сложные системы типа самоорганизующихся автоматов и теория коллективного поведения автоматов (работы Д. А. Поспелова и В. И. Варшавского) не нашли практического применения, и фундаментальные исследования Дж. фон Неймана были не востребованы вплоть до новой волны интереса к системам типа клеточных автоматов (работы американцев Улама и Уолфрема).
1980 - 1983 гг. Колоссальная сложность биологических систем и особенно мозга и нейронных процессов привели автора на кафедру биофизики ЛГУ (Ленинградского государственного университета), где он занимался исследованием биологических систем и моделированием биологических процессов на компьютерах. Тогда были сформулированы основные идеи по теории обобщенных клеточных автоматов. Апробация этих идей осуществлялась в рамках созданной на кафедре группы, в которую вошли студенты 3 - 4-го курсов.
1984 - 1991 гг. В этот период группа “вычислительной биологии”, в которую входило тогда семь человек, вела работы по межвузовской программе “Разработка нейрокомпьютеров” в содружестве с МИРЭА (Московским институтом радиоэлектроники и автоматики), НИИ нейрокибернетики РГУ (Ростовского государственного университета) и рядом институтов АН СССР. В результате теоретических и прикладных исследований были выполнены пионерские работы, результаты которых опубликованы более чем в 150 статьях и нескольких монографиях в России и за рубежом. Одновременно был начат проект “ЛОКОН”  -  локально-связанная машина. В основу проекта были положены принципы параллельной обработки информации с расширяемой архитектурой. К 1991 г. работа вышла на стадию проектирования опытного образца, для реализации которого был организован ИИТ АН СССР (Институт имитационных технологий). В рамках этой организации был создан опытный образец “ЛОКОН 9В51” и система параллельного программирования LOQON.
1992 - 1993 гг. По приглашению руководства ЛКТБ (Ленинградское конструкторско-технологическое бюро  -  бывшее КБ “Микроэлектроника”) работы по практической реализации ЭВМ “ЛОКОН” были продолжены в рамках проекта, финансируемого МО. Однако в связи с прекращением финансирования через год все работы по этой теме были свернуты и отдел “параллельных систем” был ликвидирован. Тем не менее в этот период были проведены пробные НИР по переводу архитектуры “ЛОКОН” на технологию суперкристалла, т. е. проработана возможность при технологической норме КМОП 1,5 мкм реализовать систему на 64 000 элементарных процессоров с повышенной отказоустойчивостью к дефектам технологии.
Параллельная система “ЛОКОН” (архитектура)
Тип процессора. В качестве ЭП (элементарного процессора) был выбран процессор с полной системой команд, что на этапе проектирования снимало проблему универсальности системы и исключало необходимость проектировать специализированное устройство. В качестве базовых ЭП для создания опытного образца были использованы Intel 8751, Harris RTX-2000, 1806BM2, в дальнейшем планировалось разработать собственный ЭП, ориентированный на архитектуру и представляющий собой “вычислительное” устройство, работающее по принципу обобщенного клеточного автомата:
- локальные связи поддерживаются на радиусе 1/10 размера поля вычислителей;
- загрузка информации и ее считывание происходит по каналам локального обмена между процессорами и по общей шине;
- система процессоров имеет глобальные характеристики, которые вычисляются за счет локальных связей и влияют на работу каждого процессора (принцип обобщенных клеточных автоматов);
- граничные условия системы процессоров зависят от типа решаемой задачи и заданного типа метрики (пространства решения).
Архитектура. Архитектура “ЛОКОН” относится к классу архитектур CLIP/ CAM (клеточно-автоматные машины), когда в качестве ЭП используется процессор с ограниченными функциями вычислений и передачи информации, а система строится на локально-связанных операциях с глобальной операцией загрузки-выгрузки данных в поле процессоров. Принципиальным отличием архитектуры “ЛОКОН” является то, что в качестве математической модели машины выбрана модель сети ОКА (обобщенных клеточных автоматов), которая позволила решить следующие задачи:
- проектирование системы из “неограниченного” числа локально-связанных процессоров;
- требования к отдельному процессору (на уровне системы команд, локальной памяти и интерфейса) могут быть изменены в процессе проектирования в зависимости от возможностей технологии без изменения системы программирования;
- возможность моделирования на архитектуре “ЛОКОН” вычислительных моделей как конвейерной архитектуры, так и векторных вычислений;
- совместимость архитектуры с большинством методов вычислительной математики  -  от матричных операций до решения систем в частных производных;
- независимость архитектуры от надежности отдельных элементов, что приводит к отказоустойчивости системы в целом. Соответствующее снижение производительности за счет отказа части элементов не влияет на работоспособность системы, поскольку в систему заложена возможность автоматической реконфигурации архитектуры;
- и наконец, независимость архитектуры от типа элементной базы (электронная, опто-электронная, нанотехнология, биотехнология и т. п.), поскольку модель вычислений не привязана к вычислительной модели (процессор-память-программа).
Проектные нормы:
- минимальный размер поля ЭП 100х100 (10 000 процессоров);
- минимальный радиус локальной связности ЭП  -  4 (локальная окрестность 9х9 процессоров);
- минимальное количество функций перехода (система команд параллельной машины)  -  100;
- “временная” память на состояние ЭП составляет 8 макротактов (временная глубина параллельного алгоритма);
- максимальная длина программ для ЭП  -  1000 команд.
Реализация. Система “ЛОКОН” была разработана в виде набора модулей по 64 процессора с общим числом процессоров в системе 16 384. Каждый модуль представлял собой многослойную плату (до 10 слоев металлизации). В качестве управляющей машины (или сервера управления) с функциями загрузки-выгрузки данных, поддержки интерфейсов пользователя и связи с глобальными сетями использовались компьютеры IBM. При этом спроектированная машина занимала физический объем 1 куб. м и имела проектную производительность не ниже 10 млрд. операций с плавающей точкой в секунду (GFLOPS). Хотя оценка производительности сильно зависит от тестовых задач, однако проводить сравнение производительности параллельных машин еще никто корректно не умеет.
Один из опытных образцов машины “ЛОКОН 9В51” (модуль на 9 процессоров в слоте для инструментального компьютера PC) был изготовлен и отлажен в 1990 г. и до настоящего времени используется как параллельный сопроцессор для ПК. На этом опытном образце проводилась отладка системы параллельного программирования и микропрограммное управление параллельной архитектурой, исследовались критические задачи параллельного программирования (синхронизация процессоров, межпроцессорные конфликты и живучесть архитектуры при выходе из строя части процессоров). Разработанная и смоделированная система на 16 384 процессора так и не была реализована в полном объеме (за исключением изготовления 10-слойной платы под установку процессоров Harris), поскольку к тому моменту, когда она была готова к реализации, в организации, где работала группа, были сокращены все перспективные НИОКР.
Параллельна- система “ЛОКОН” (программирование)
В рамках работ, проводившихся при проектировании системы “ЛОКОН”, были развернуты НИР по следующим направлениям:
- система логического моделирования архитектуры параллельных машин с интерфейсом к САПР как на уровне конструкторской, так и на уровне технологической части;
- разработка языка прграммирования (ЛОЛА) и виртуальной машины для решения задач на системе “ЛОКОН”;
- на базе опытного образца “ЛОКОН 9В51” создана система программирования низкого уровня (система микропрограммирования для локальной архитектуры и транслятор с языка Си);
- инструментальная многооконная система программирования на языке Си, интегрированная в пакет Borland v.2.0.
Виртуальная машина LOQUN
Пакет LOQUN разрабатывался как прототип системного обеспечения (операционной системы) для реальной машины, которая была спроектирована при разработке “ЛОКОН” и описана выше. В системе был заложен компилятор с языка высокого уровня ЛОЛА (LOLA  -  low-level language for LOCON microprogramming) на язык микропрограмм процессора “ЛОКОН”.
Программа, написанная на языке ЛОЛА, могла выполняться в системе моделирования LOQUN, которая по сути была виртуальной машиной. Прикладные задачи или библиотеки писались на языке ЛОЛА и прогонялись в виртуальной машине.
“ЛОКОН” был представлен как некий сопроцессор, работающий под контролем управляющей машины. При этом управляющая машина выполняла следующие функции:
- загрузку микропрограмм в каждый ЭП;
- подготовку и загрузку данных в ЭП;
- запуск процессов исполнения откомпилированных задач;
- вывод результатов;
- поддержку интерфейса пользователя.
Решение задачи в виртуальной машине предполагает три этапа:
- разработка интерфейса пользователя (используется язык высокого уровня или одна из стандартных прикладных систем программирования);
- процедуры для обслуживания интерфейса “ЛОКОН” с управляющей машиной пишутся на ассемблере и включаются в язык высокого уровня как расширение;2 микропрограммы для “ЛОКОН” пишутся на языке ЛОЛА.
Прикладные  задаЧи
Кроме описанных в процессе работы над проектом были исследованы области максимально эффективного применения машины типа “ЛОКОН”. Это прежде всего задачи, обладающие свойством естественного параллелизма:
2 моделирование физико-химических и биологических систем (в том числе экосистем), состоящих из 104 - 105 фазовых ячеек пространства, частиц или функциональных элементов, каждый из которых может обладать сложным поведением (подвижность-диффузия, полевые свойства и т. п.);
- задачи расчета потоков в аэро- и гидродинамике, задачи турбулентного движения и обтекания, задачи теплофизики, квантовой механики;
- реализация известных численных методов для уравнений в частных производных до 4-го порядка для решения широкого спектра задач математической физики;
- решение задач выбора, поиска и оптимизации на графах, в том числе для решения задач эффективного поиска в базах данных;
- обработка изображений и решение задач восстановления по неполным данным и генерации изображений.
Список  основных уЧастников  проекта  “ЛОКОН”
Бронников В. А.  -  главный конструктор и научный руководитель проекта (ныне директор по маркетингу и развитию холдинга “ЛАНК”).
Адамацкий А. И.  -  руководитель и автор математической модели вычислений по проекту (ныне сотрудник исследовательского центра HP в Англии).
Иванов С. Ф.  -  руководитель и автор технических решений по проекту (ныне руководитель системных проектов компании “ЛАНК-Системс”).
Соловьев М. В.  -  руководитель работ по созданию системной части и компиляторов (ныне сотрудник и консультант ряда институтов РАН в Санкт-Петербурге).
Рыбак И. А.  -  консультант по математическим моделям нейронных механизмов обработки изображений (ныне руководитель группы исследовательского центра компании DuPon USA).
Лашевский Р. А.  -  консультант по технологии КМОП (ныне профессор одного из университетов в Японии).
В работе над проектом в разное время участвовали сотрудники следующих организаций: ЛГУ, ЛЭТИ, ЛИАП, ЛИТМО, ЛКТБ, НПО “Океанприбор”, НПО “Ленинец”, НПО “Авангард”, МИРЭА, ИТМВТ АН СССР, ВМК МГУ, НИИ нейрокибернетики РГУ, ИЭФБ им. И. М. Сеченова РАН, ФИН им. акад. И. П. Павлова РАН, ИЭМ АМН и многие другие.
Финансовую поддержку проекту оказывали в основном частные лица и в отдельных случаях Фонд Сороса (через индивидуальные гранты).
В заключение автор хотел бы поблагодарить всех, кто своим трудом и помощью способствовал тому, чтобы проект был реализован в условиях тотального обвала финансирования не только фундаментальных, но и прикладных исследований. Нам остается надеяться, что наступит и в России такое время, когда пионерские идеи и проекты будут реализованы и наши компании смогут выйти на мировой рынок не только с нефтью, металлом и икрой, но и с суперкомпьютерами. Тем более что сегодняшняя ситуация на этом рынке определяется не столько уровнем технологии, сколько уровнем заложенных в эту технологию идей. В США технология слабее, а суперкомпьютеры пока лучше, чем в Японии!
Ноябрь 1997 г.
Санкт-Петербург, Куракина дача.
Владимир Бронников
Collapse )
v3

Сергей Лебедев. Битва за суперкомпьютер

1 июня 2017 г.
Академик Сергей Лебедев чувствовал себя совсем плохо. Воспаление легких, температура 40. Но он был уверен, что найдет силы встать с постели. Он должен поехать к министру и добиться, чтобы его приняли. Он должен доказать свою правоту. Иначе перечеркнуто дело всей жизни...
Великий молчун
У создателя первого отечественного компьютера Сергея Алексеевича Лебедева был дар предвидения. Еще в середине прошлого века он знал, что за электронно-вычислительной техникой будущее. Еще тогда загорелся идеей создать самую быстродействующую машину. Машину, которая сможет покорить мир...
Детство Сергей провел в Нижнем Новгороде. Мальчишкой был тихим и очень сосредоточенным. Из всех забав предпочитал опыты с электричеством. Однажды смастерил динамо-машину, в другой раз опутал квартиру проводами, чтобы подключить электрические звонки...

Мама Анастасия Петровна Маврина и отец Алексей Иванович Лебедев.

А это их сын Сергей в 1920 году.
В Москву Лебедевы переехали, когда вся страна обсуждала невиданный по масштабам план электрификации - ГОЭЛРО. Тридцать новых электростанций. Тысячи километров электрических проводов через всю страну. Перспективы промышленного и научного развития представлялись фантастическими.
В 1921 году Сергей поступил в Высшее техническое училище имени Баумана на электротехнический факультет и через несколько лет блестяще защитил дипломную работу на тему "Устойчивость параллельной работы электростанций". Совсем скоро его уже считали одним из самых компетентных в стране специалистов по теории надежности в электротехнике.
"Великий молчун" - так его называли. Он был методичным, сдержанным, обстоятельным. Но в нужный момент принимал решения молниеносно.
С Алисой Штейнберг Сергей познакомился в 1927 году на одном из подмосковных пляжей. Она плыла вдоль берега, а он неожиданно и эффектно вынырнул из воды прямо перед ней. Он понял сразу - она будет его женой.
Сергей и Алиса проживут вместе 47 лет. Он будет создавать свои супермашины. А она будет создавать их общий мир. "Молодые не имели своего угла и скитались по друзьям, - вспоминала их дочь Екатерина. - Так, их приютил муж сестры Алисы. В соседней комнате жил мальчик Зига, которого сегодня зовут академик Сигурд Оттович Шмидт. Ребенок на всю жизнь запомнил, как Сергей и Алиса курили, хохотали и целовались на бабушкином сундуке в прихожей".
Спустя годы Сергей Алексеевич признается, что "пережил с Алисой всю гамму чувств, кроме скуки". Какая скука, если в доме гостями были Илья Ильф и Евгений Петров, Михаил Зощенко и Юрий Олеша?!
Лебедев уже получил звание профессора и руководил лабораторией в Электротехническом институте, но в кругу близких людей мог повести себя как мальчишка. Например, съехать в подъезде по перилам. Или пробежаться по этажам, нажимая на дверные звонки. К "великому молчуну" добавился еще и "профессор-шалун".
Объяснялись с возмущенными соседями друзья. А профессор отправлялся в институт и до поздней ночи занимался проблемами мощных энергосистем, от создания которых зависело будущее страны.
Большая электронная счетная машина (БЭСМ-1) и ее создатель.
Единички-нолики 1941 года
Осенью 1941 года Лебедев записался в ополчение. Но на фронт его не отпустили: ученый разрабатывал боевые средства, самонаводящиеся на цель. По ночам он тушил зажигалки на институтской крыше и продолжал думать о своей супермашине. Дети вспоминали: когда в доме не было электричества, отец сидел в ванной у газовой колонки и писал единички-нолики.
Это была основа двоичной системы счисления.
В самом начале войны Лебедев уже вынашивал идею создания цифровых электронных вычислительных машин. Не расставался с мечтой и после 16 октября, когда институт срочно отправили в эвакуацию на Урал. Лебедевых поселили в сыром и холодном доме без всяких удобств. Не хватало лекарств, еды и детских вещей - их украли в поезде. Сергей Алексеевич допоздна пропадал в институте. Работал над созданием самонаводящихся торпед, конструировал систему стабилизации танковых орудий. А в редкие выходные отправлялся пешком за несколько километров от города, чтобы принести семье мешок мерзлой капусты.
В 1945 году Лебедевы вернулись в Москву. Великая Отечественная война закончилась. Но для Сергея Алексеевича его битва за суперЭВМ только начиналась. И пробить чиновничью оборону было потруднее, чем снарядом броню.
На приеме к члену ЦК ВКП(б), курировавшему науку, Лебедев доложил о своем проекте, назвал примерную стоимость ЭВМ. Разговор получился коротким.
- И какова скорость вычислений вашей машины?
- 1000 операций в секунду.
- Что же, мы за один-два месяца перерешаем на этой машине все наши задачи, а куда ее потом - на помойку?!
Лебедев понял, что продолжать разговор бессмысленно, и завершил его своим обычным тихим "ну-ну...". Но судьба уже готовила счастливый поворот.

"Думающее чудо"

О разработках Лебедева узнал президент Академии наук Украины Александр Богомолец. И пригласил его в Киев. Перспективы открывались фантастические: звание академика, должность директора Института энергетики. Не было никаких сомнений, какое решение надо принять. Но дома по этому случаю был устроен целый спектакль.
"И вот, в нашей квартире в Лефортово собрались друзья родителей, - вспоминал сын Сергей. - Мать предложила бросить жребий. Две бумажки с надписями "Киев" и "Москва" были положены в шапку и тщательно перемешаны. К счастью, выпал Киев! С тех пор эта шапка прочно вошла в семейные фольклорные анналы и стала в кругу друзей не менее знаменитой, чем шапка Мономаха".
Лебедевы переехали в Киев летом 1946 года. Того самого, когда американские конструкторы Джон Мочли и Джон Эккерт объявили о создании электронной вычислительной машины ЭНИАК. Разворачивалась яростная борьба за мировое первенство, и Сергей Алексеевич, - создал лабораторию вычислительной техники. Именно там должна была родиться первая в Советском Союзе электронная счетная машина.
А Алиса первым делом купила в их новый дом рояль, о котором вспоминал сын:
"Отец не прекращал думать о деле, пока не находил решение. Выдерживать большие перегрузки ему помогала его манера отдыхать. Если выпадал свободный час, он заполнял его игрой на рояле".
У Сергея Алексеевича наконец-то появился свой кабинет, но он так и не смог привыкнуть работать в одиночестве. Когда собирались друзья, выходил в гостиную, но работу не прекращал. Сидел за столом, рисовал свои схемы на папиросной коробке...
К осени 1948 года Лебедев закончил разработку основных принципов построения машины. Работы по ее созданию были развернуты в 15 километрах от Киева, в селе Феофания, в разрушенном здании бывшей монастырской гостиницы. Толковые специалисты были наперечет. Зато энтузиазма в избытке. Академик сам сверлил, клепал, монтировал. Работали круглыми сутками. И уже через пару лет машина "задышала".
Ее назвали МЭСМ - малая электронная счетная машина. Она стала первой ЭВМ в Советском Союзе и во всей континентальной Европе. Доработка Малой машины еще продолжалась, а Лебедев уже приступил к созданию Большой. К этому времени наконец-то и в столице признали исключительную важность научного направления. В 1953 году Лебедеву предложили возглавить Московский институт точной механики и вычислительной техники. К тому моменту в Специальном конструкторском бюро рождалась машина, которую назвали "Стрела". Но уступать Лебедев не собирался!
Его детище назвали "думающим чудом". Машина Лебедева справлялась с задачами в 5 раз быстрее "Стрелы". Более того, она оказалась самой быстродействующей в Европе! В 1956 году доклад Лебедева на конференции в Дармштадте произвел сенсацию.
А Сергей Алексеевич уже решал нелепую по меркам пятидесятых годов задачу: можно ли снарядом попасть в летящий снаряд? Лебедев понимал, что с этим может справиться ЭВМ. Как он и предвидел, компьютеры начинали завоевывать мир.


Апрель-май 1959 года. Генеральные конструкторы советских ЭВМ, приехав в США, знакомятся с компьютерами IBM. Третий слева - Сергей Алексеевич Лебедев.
Приказ на Запад
4 марта 1961 года с полигона в Капустином Яре стартовала ракета. Расчет для пуска противоракеты вела разработанная в институте Лебедева машина М-40. Спустя несколько минут на табло высветилась надпись "Подрыв цели".
На пресс-конференции Никита Хрущев сказал, что "наша ракета попадает в муху в космосе!". Американцы смогут повторить такой запуск только через 20 лет. Но лишь спустя годы в семье узнают, что в тот день на полигоне Сергей Алексеевич пережил несколько, возможно, самых страшных секунд в своей жизни. Перед запуском противоракеты в компьютере взорвалась электронная лампа. К счастью, с аварией удалось быстро справиться...
В его доме по-прежнему собирались друзья: Ираклий Андроников, Махмуд Эсамбаев, Зиновий Гердт, Александр Галич. Святослав Рихтер давал уроки игры на фортепиано младшей дочери Кате. И все так же Сергей Алексеевич выходил из кабинета к гостям с карандашом и папиросной коробкой. Но шутил уже не так часто.

Свободное время - в саду, за пианино и, конечно, в кругу семьи (слева направо): сын Сергей, жена Алиса Григорьевна, приемный сын Яков, Сергей Алексеевич, дочери-близнецы Наталья и Екатерина.
"В один из вечеров Алиса Григорьевна с Андреем Дмитриевичем Сахаровым и другими академиками организовала тайный фонд, - вспоминал сын Сергей. - Его называли "академическая касса". Алиса Григорьевна собирала деньги, чтобы помогать нуждавшимся друзьям: Галичу, Солженицыну, Дудинцеву. Тяжелое было время..."
Возможно, самое тяжелое в жизни Сергея Алексеевича. Дискуссии о дальнейшем развитии вычислительной техники становились все яростнее. Лебедев был уверен, что надо идти своим путем, создавать собственную линию ЭВМ средней мощности и супер-ЭВМ нового поколения. Оппоненты предлагали создать ряд совместимых компьютеров, повторив американскую систему IBM. Лебедев жестко возражал: "Мы будем делать машину из ряда вон выходящую".
Выходящую из американского ряда!
У Лебедева были талант и опыт. У его противников - власть.
Зимой 1972 года Сергей Алексеевич лежал с воспалением легких, когда узнал, что решение копировать американскую машину принято окончательно. Он встал с постели и отправился к министру, чтобы убедить его не совершать ошибку, которая отбросит страну на годы назад. Лебедев прождал в приемной больше часа. Министр его не принял.
Кто выиграл от этого поворота на Запад?
"Копирование IBM шло трудно, с многократными сдвигами намеченных сроков, - вспоминал академик Международной академии информатизации Борис Малиновский. - При этом все "варились в собственном котле", с трудом доставая документацию на американскую систему. Если подумать об ущербе, который был нанесен отечественной вычислительной технике, то он, конечно, несравненно выше полученных скромных результатов".
Возможно, эта история приблизила смерть Сергея Алексеевича. Он все чаще болел. Алиса Григорьевна и дети круглосуточно дежурили в больнице. Выдающийся ученый умер 3 июля 1974 года.
ДОСЛОВНО

Медаль Computer Pioneer, присужденная С.А. Лебедеву как основателю советской компьютерной отрасли.
"Среди ученых в нашей стране и за рубежом нет человека, который, подобно Лебедеву, обладал столь мощным творческим потенциалом, чтобы охватить период от создания первых ламповых ЭВМ, выполнявших лишь сотни операций в секунду, до сверхбыстродействующих супер-ЭВМ на интегральных схемах. За двадцать лет под его руководством было создано пятнадцать высокопроизводительных ЭВМ, и каждая - новое слово в вычислительной технике".
Борис Малиновский, академик Международной академии информатизации

P.S. Его битва за суперкомпьютер имела свое продолжение.
15 июля 1975 года об этом сообщили все газеты мира. Стартовал советско-американский космический проект "Союз - Аполлон". Управление полетом осуществлялось вычислительным комплексом, основу которого составляла лучшая лебедевская машина БЭСМ-6. Всю информацию она обрабатывала на 20 минут быстрее, чем американская.
Collapse )
v3

Немного из истории специализированных ЭВМ военного назначения

5 февраля 2016
Середина ХХ столетия, СССР. Основное внимание было уделено созданию универсальных ЭВМ для решения сложных математических вычислительных задач, это были стационарные машины, которые ориентировались на последовательное или пакетное решение задач, вне связи с реальным масштабом времени и динамическим изменением параметров объектов внешней среды. Но уже к концу 50 годов в Министерстве обороны страны возник интерес к применению таких ЭВМ для решения задач обработки информации и управления в военных системах. Но сразу же возникли трудности, связанные с недостатками таких универсальных машин при использовании их в военных системах для решения задач управления в реальном времени. Поэтому начало ускоренными темпами развиваться направление вычислительной техники военного предназначения.

Четко стали различать два класса ЭВМ: стационарные и мобильные. Развитию мобильных типов ЭВМ содействовали разные требования заказчиков, так как планировалось применять их и в сухопутных, и в авиационных, и в морских, и в ракетных, и в других систем в оборонных отраслях промышленности и на предприятиях, цифровая вычислительная техника начала применяться для систем противовоздушной и противоракетной обороны, для контроля космического пространства и управления полетами в авиации и в космосе. Стационарные работали в помещениях, а мобильные, следовательно, должны были быть транспортабельными.
Из-за соблюдения «грифа» секретности обмен информацией о разработках специализированных ЭВМ между специалистами разных отраслей и предприятий в СССР был резко ограничен, почти отсутствовала информация о технических характеристиках и принципиальных особенностях таких специализированных машин за кордоном. Разработка ЭВМ обходилась из-за этого очень дорого, так как было создано великое множество архитектур таких оригинальных машин. Централизованной промышленности электронных компонентов для ЭВМ тоже не было.
Специализированные ЭВМ военного назначения
Проект подвижный вычислительный пункт (ПВП) или объект «Платформа»
Еще в 1960 году была разработана и создана серия мобильных ЭВМ для армейского и фронтового звена под кодовым названием «Бета», но работы так и не начались.

мобильный вычислительный комплекс «Бета-3М»
В 1962 году нужной для армии мобильной ЭВМ не было ни в Минобороны, ни в СССР. Генштабом была выдана Директива в кратчайшие сроки (за год) "… спроектировать, заказать производство, отладить и ввести в «боевую» эксплуатацию мобильный Военный Центр, в основу предполагалось взять одну из ЭВМ производства СССР и просто адаптировать ее к специфическим условиям функционирования. Также необходимо было "… разработать, запрограммировать и отладить комплекс задач для использования при проведении КШУ (командно-штабных учений) в масштабе фронта (округа), с участием войск и военной техники, для командно-штабных игр штабов, военных академий и других учебно-показательных мероприятий".
Ориентировались разработчики на американский проект Мобидик (хотя уже тогда в СССР была разработана подвижная, узкоспециализированая ЭВМ «Курс-1» для обработки информации с радиолокационных узлов, но все ж было секретно).

Вот некоторые требования к такой «Платформе»: обеспечение необходимой производительности, надежность работы после перемещений по грунтовым дорогам, 100 часов работы в условиях нон-стоп, климатические условия задавались по температуре от -30 до +40°С.
На первом этапе была выбрана подходящая универсальная отечественная ЭВМ второго поколения на полупроводниковых элементах, благодаря использованию которых габариты и потребляемая мощность ЭВМ уменьшились, в то время когда такие показатели как быстродействие, объём оперативной памяти возросли.
Была выбрана ЭВМ «Раздан-2»(произведена в Ереване, завод ЕрНИИММ). Приступили к модернизации машины. Для того, чтобы обеспечить ее работу в «полевых» условиях, для эксплуатации в войсках и сделать подвижной, необходимо было повысить ее надежность, конструктивно доработать ЭВМ для размещения аппаратуры в ограниченном пространстве, при этом обеспечить ее сохранность и работоспособность при передвижениях, защищенной от климатического воздействия. Ко всему этому нужно было выбрать всю инфраструктуру мобильного ВЦ.

«Раздан»
Сюда входил термоизолированный цельнометаллический фургон-полуприцеп типа 828 для размещения оборудования, автотягач седельного типа марки ЗИЛ-157, мощный кондиционер, передвижная дизель-электростанция мощностью 30 кВт в мобильном варианте исполнения, с расходом топлива 8 л/час при ёмкости топливного бака 100 литров, связная радио и телеграфная аппаратуру.
Был создан мобильный ВЦ, в одном кузове было установлено две ЭВМ «Раздан-2», а все устройства подготовки данных, связи, контрольно-проверочной аппаратуры, различные стенды, расширенный комплект ЗИПа, кабели и другое оборудование разместилось в кузове армейского КУНГ установленного на шасси ЗИЛ-157.
Климатическая защита для поддержания в кузове необходимой температуры и влажности обеспечивалась за счёт следующих основных мероприятий: в кузове был установлен кондиционер с высокой холодо- и теплопроизводительностью, вынесены стойки ЭВМ вторичных источников электропитания, в отдельную стойку с автономной системой вентиляции и охлаждения установлены дополнительные вентиляторы. Оптимальный режим работы ЭВМ при температуре от + 20 до +30°С.

В 1964 году модульный ВЦ «Платформа» был принят на «снабжение». После этого, проект еще модернизировался, была удвоена ОП каждой ЭВМ за счет резервного ферритового куба, дополнительно встроена ПЗУ на ферритовых сердечниках, стала возможной реализация совместной работы двух ЭВМ.

куб оперативной памяти на ферритовых сердечниках
Комплексирование двух ЭВМ в «Платформе» в аппаратном, программном, информационном аспектах было произведено впервые в СССР. Мобильный ВЦ «Платформа» в 1963 — 1968 годах был первым и единственным ВЦ такого типа.
ЭВМ «Гранит»
Специализированная ЭВМ применялась для статистической обработки большого количества результатов наблюдений и была создана по заказу Главного артиллерийским управлением Министерства Обороны СССР для повышения эффективности артиллерийской стрельбы. В 1957 году была отправлена на один из артиллерийских полигонов Министерства обороны. Использовалась для пристрелки артиллерийских орудий.

ЭВМ состояла из вычислительного устройства, накапливающего сумму парных произведений, комплекта устройств для подготовки перфоленты (кинопленка шириной 35 мм), выходного перфоратора и печатающего устройства, потребляемая мощность составляла 4,5 кВА. Занимала такая ЭВМ 30 квадратных метров.
ЭВМ «Клен» и вычислительные комплексы «Клен-1» и «Клен-2»
Начиная с 1962 года и по 1968 в Научно-исследовательском институте электронного машиностроения (НИЭМ) был создана ЭВМ «Клен» и ЭВК «Клен-1» и «Клен-2», на них работала распределённая система обработки спутниковой информации. Целью данной разработки была автоматизация обработки телеметрической информации, поступающей с искусственных спутников земли
Одноадрессная параллельного действия ЭВМ «Клен» оперировала с числами, представленными в формате с фиксированной перед старшим разрядом запятой. Числовые данные представлялись в 27-разрядной сетке, где 23 разряда занимала цифровая часть, один разряд – знак числа, три разряда отводились под контроль по модулю два. Команда занимала 33 двоичных разряда, 7 из них для предоставления кода операции, 16 — адреса, а 4 разряда — код конфигурации чисел, 3 — для кода модификации адреса, 3 разряда- для контроля по модулю два и три. Емкость оперативной памяти ЭВМ 8192 (8К) 27-разрядных слова. Время выполнения коротких операций, таких как сложения, операций переходов составляло 4,5 мкс, умножение выполнялось за 25,5 мкс. Система команд ЭВМ «Клен» включала в свой состав 83 команды, особенностью которых являлась возможность работы с различными конфигурациями чисел.
В ЭВМ «Клен» было традиционное устройство ввода данных с перфокарт, 27 разрядных каналов для связи с внешними абонентами, для вывода данных — печатающее устройство.
+5 до +40 градусов Цельсия — диапазон температуры для оптимальной работы машины.
Специально для машины «Клен» была разработана импульсно-потенциальная система элементов с диодно-резистивной логикой и максимальной частотой работы 660 кГц. Время задержки логических элементов системы — 50 нс, время задержки элементов системы, которые использовались в последовательных цепях — 20-30 нс. В цепях сумматоров и контроля были использованы специальные логические элементы.
ОЗУ в ЭВМ использовалась на ферритовых сердечниках типа ВТ-7 с временем цикла 6,0 мкс и временем считывания 2,25 мкс. В качестве долговременного запоминающего устройства использовано ЗУ на оксиферовых сердечниках с постоянной прошивкой, время цикла ДЗУ составляло 4,5 мкс, а время считывания – 2,25 мкс.

Емкость блока ДЗУ программ могла составлять от 8192 до 65536 кодов, магнитное оперативное запоминающее устройство (МОЗУ) программ, ёмкостью 4096 кодов, служило для отладки программ перед зашивкой в ДЗУ.
В ЭВМ «Клен» могло быть четыре блока МОЗУ чисел, по 8192 числа в каждом блоке. Работа таких блоков могла совмещаться.

ЭВК «Клен-1» и «Клен-2» — модификации ЭВМ «Клен» с расширенными ОЗУ и ДЗУ с минимальными добавлениями в командах обмена с внешними устройствами. В составе обоих комплексов появились ЗУ на магнитной ленте и развитая система внешних устройств.

ЭВМ различались только различной комплектацией внутренних ЗУ, накопителей на магнитной ленте и устройств ввода-вывода. Внешние устройства «Клен-1» -устройство ввода перфокарт ВУ-700-2, 2 алфавитно-цифровых печатающих устройства АЦПУ-128-2. К внешним устройствам «Клен-2» относились 4 печатающих устройств АЦПУ-128-2, перфоратор результатов ПР, перфоратор ленточный ПЛ-20-2.
От удалённых источников по внешним магистралям в ЭВК «Клен-1» поступали данные, происходила их сортировка, уплотнение и исключение избыточных данных. После этого предварительно обработанные данные передавались в ЭВК «Клен-2», здесь проходила их окончательная обработка, каталогизация, хранение и выдача по запросам пользователей.
Специализированные ЭВМ «Диана-1», «Диана-2».
С.А. Лебедев и коллектив ИТМ уделяли особое внимание работам, связанным с обороной страны, проводились исследования и разработки по автоматическому сьему данных с РЛС (радиолокационная станция) и автоматическое слежение за летающими целями. Проводился эксперимент по одновременному сопровождению нескольких реальных самолетов при опережающем расчете их траектории. Для ввода данных в цифровом виде была применена ЭВМ «Диана-1», а для сопровождения целей — «Диана-2». Такой эксперимент положил начало в развитии радиолокационных и ракетных комплексов на новой информационно — вычислительной основе.
«Диана-1»-машина последовательного действия с коммутируемой программной обработкой, предназначалась для работы в составе систем наведения самолетов-истребителей на цели. Машина проводила автоматическое снятие данных с радиолокатора с селекцией объекта от шумов, переводила их в цифровой вид и выдавала траектории движения нескольких целей на экраны.
«Диана-2» — ЭВМ с фиксированной запятой, разрядностью 10, одноадресной системой команд, с количеством команд — 14, командной памятью объемом 256, ЗУ константой, оперативной памятью на магнитострикционных линиях задержки.
Опыт разработки Бурцевым «Дианы-1» и «Дианы-2» позволил ему создать высокопроизводительную вычислительную сеть, включающую малые вычислительные машины радиолокационных станций, радиолокатора противоракеты, М40 и М-50. Было автоматизировано управление всеми боевыми процессами. Главной стала вычислительная машина и реализованная в ней боевая программа. Информация от радиолокаторов поступала асинхронно по дуплексным радиорелейным линиям связи (такие линии связывали объекты, находящиеся на расстоянии от 100 до 200 км.). Для её обработки Всеволод Сергеевич впервые ввёл развитую систему прерываний в М-40 и М-50 и впервые же в Советском Союзе разработал устройство приёма и передачи данных с использованием принципа работы мощного мультиплексного канала.
Семейство специализированных компьютеров «Карат»
В 1976 году унифицированные ЭВМ «Карат» были приняты на снабжение для Военно-морского флота СССР. Это были малогабаритные, надежные вычислительные машины с высокими функциональными параметрами. Их создание в корне изменило ситуацию в морском приборостроении.

История создания унифицированных ЭВМ «Карат» началась еще в 1963 в Киевском НИИ радиоэлектроники под руководством Плотникова (главного конструктора семейства специализированных компьютеров «Карат»). В 1963 году лаборатория Плотникова представляла в качестве базовых элементов для новых разработок плоские микромодули (ПММ). Это был первый серийнопригодный универсальный элемент созданный в СССР, который предоставлял возможность создавать ЭВМ и другую цифровую аппаратуру на новом, довольно высоком уровне.
Тонкостенный алюминиевый корпус плоского микромодуля был 17,5х9,5х6,3 мм, с весом в 2 грамма, собирался такой ПММ из микроэлементов, которые монтировались с двух сторон печатной микроплатой (9х17 мм), перпендикулярно плате устанавливались штырьковые выводы с шагом 4 мм.
Но для флота нужны были ЭВМ с элементами по размерам меньшими чем ПММ, поэтому для построения ЭВМ начали применяться еще несовершенные интегральные микросхемы отечественного производства. В лаборатории Плотникова начали работу над созданием многокристальных интегральных микросхем. Это было совершенно новое направление в разработке элементной базы вычислительной техники.

Гибридные большие интегральные схемы «Вардува»(ГБИС) — так были названы новые многокристальные микросхемы. Первым образцом «Карата» была малогабаритная 24-разрядная машина на ГБИС «Вардува». Схемы функциональных узлов микросхем были разработаны советскими учеными, исходя из логических схем ЭВМ (в одном корпусе размещалось 8 разрядов регистра, 2 разряда АЛУ и т.п.). Эта разработка на много лет опередила создание многокристальных схем за рубежом (“мультичипы”).

Машина применялась более чем в 60 типах систем, разработанных предприятиями четырех министерств. В простых системах могла использоваться ЭВМ в минимальной модификации, а на самых крупных современных судах с несколькими системами на борту можно было встретить 15 и больше ЭВМ типа «Карат» в максимальном варианте. В 1981 году было разработано 15 модификаций машин семейства «Карат», было подготовлено программное обеспечение обьемом 5 миллионов команд. Для обработки информации от радиолокационных систем с фазированными антенными решетками была разработана модификация «Карата» с быстродействием 2,5 млн. операций в секунду. Позже была разработана модификация «Карат-КМ-Е» на секционных микропроцессорных больших интегральных схемах. На заводах в СССР было выпущено около 2 тысяч машин.
ЭВМ «Радон»
В 1964 году в Научно-исследовательском институте электронных математических машин закончилась разработка ЭВМ для применения в противовоздушной обороне СССР. Это была импульсно-потенциальная с гальваническими и трансформаторными связями ЭВМ второго поколения на базе транзисторов П16 и П601.

Научно-исследовательский институт электронных математических машин
Конструкция ЭВМ представляла собой 16 стоек, в каждой из стоек были свои блоки питания и управления ими, панель межсоединений, включающая 320 розеток типа «лист» (по 20 контактов каждая), которые сочленялись вилками, расположенными на торце ячеек, содержащих от 4 до 8 элементов.

блок-схема ЭВМ «Радон»
Было разработано несколько модификаций ЭВМ «Радон», которые отличались емкостью ОЗУ, ПЗУ. Это был двухмашинный комплекс с шинной организацией связей. ЭВМ была одноадрессная, разрядность команд — 24 (2- контрольные), разрядность операндов — 20 (2 контрольных), операции — с фиксированной точкой, число кодов команд — 64. Каждый процессор ЭВМ имел доступ к своей памяти, а также к памяти парной ЭВМ, что давало возможность работать не только в двухмашинном режиме, но и двухпроцессорном режиме. Две ЭВМ были подключены к общей обменной магистрали для связи с устройствами управления системы. Для первичной загрузки, тестирования и вывода информации для анализа на печать использовалась периферия самой машины.
ЭВМ «Радон» занимала площадь в 150 квадратных метров. Она была надежна и с повышеным быстродействием.
Впервые в СССР в машине были реализованы:

  1. ОЗУ и ПЗУ с использованием транзисторов;

  2. процессор содержал два индексных регистра;

  3. эффективная система встроенного аппаратурного контроля в сочетании с программными средствами автоматического восстановления работы системы после воздействия ошибки в ЭВМ и системе;

  4. совмещение времени выполнения операций (конвейерность);

  5. система прерываний и приоритетного переключения программ;

  6. двухпроцессорный и двухмашинный режимы работы.

Система «Акация»
В 1982 году была разработана цифровая система управления стрельбой «Акация». Система была создана для выработки данных для стрельбы крылатыми стратегическими ракетами «Гранат» с подводных лодок и подводных кораблей, в систем входило 2 СЦВМ «Арка», 2 прибора оперативной памяти, 2 прибора долговременной памяти, 2 прибора обмена данными, 2 прибора управления резервом. Для того, чтобы повысить надежность системы «Акация» все приборы имели резерв, резервирование происходило автоматически.
СЦВМ «Арка» (специализированная вычислительная машина) предназначалась для работы с СЦВМ «Атака» и использовалась для увеличения пропускной способности вычислительной системы с СЦВМ «Атака».

Быстродействие такой СЦВМ для режима работы: с регистрами 500 тысяч коротких операций в секунду, при работе регистр-памяти — 167 тысяч коротких операций в секунду. Потребляемая мощность 1200 Вт. Машина «Арка» имела два устройства обмена. Каждое устройство состояло из 8 последовательных каналов. Одно устройство обмена с параллельным мультиплексным каналом. Среднее время наработки на отказ — 2000 часов.
СЦВМ «Атака»

специализированная цифровая вычислительная машина «Атака» (МВМ-012)
Специализированная вычислительная машина «Атака» (МВМ-012) была создана в 1974 году в НПО «Агат». Габариты такой машины — 1800х1076х516 мм, занимаемая площадь 0,65 квадратных метров. СЦВМ «Атака» состояла из двух шкафов, которые были соединены между собой механически и электрически. В состав машины входило устройство команд, устройство прерывания команд, устройство обмена, арифметическое устройство, блоки микропрограммного управления, 16 буферных регистров общего назначения, ферритовое оперативное запоминающее устройство емкостью 16К слов, устройство аппаратного контроля, пульт контроля и управления, устройство питания.

В машине применялась двоичная система представления чисел, с фиксированной запятой, количество разрядов — 32. Предусмотрена работа со словами двойной длины (64 разряда), с полусловами (16 разрядов) и с восьмиразрядной буквенной информацией. Система команд была двухядерная, число операций — 56, из них 16 арифметических операций, 7 логических операций, 19 операций пересылки, 6 операций сдвига, 8 операций управления.
Нужно отметить, что в СЦВМ была возможность наращивать память до 256К слов с подключением внешних приборов памяти 182-3 — ОЗУ 64К, 183 — ДЗУ 128К (2X64К), 184 — ОЗУ 32К и ДЗУ 64К или любых других приборов, имеющих электрическую и информационную совместимость с МВМ-012.
Было предусмотрено 2 параллельных, 2 последовательных канала обмена. Скорость обмена по последовательному каналу составляла 20 тысяч слов в секунду, по параллельному каналу — 94 тысяч слов в секунду.
Потребляемая мощность от сети 1,5 кВт, питание производилось от трехфазной корабельной сети переменного тока напряжением 220 В, частотой 400 Гц. Допускаются колебания сети: ±5% при длительных отклонениях и от +13% до -25% при кратковременных отклонениях по напряжению, а также от +4% до -6% по частоте.
Условия эксплуатации:

  1. виброустойчивость в диапазоне частот 5–120 Гц с ускорением 2g;

  2. воздействие одиночных ударов с ускорением 1000g;

  3. вибропрочность в диапазоне частот 20–120 Гц с ускорением 2g;

  4. циклическое изменение температуры от +65 до -50°С;

  5. относительная влажность 95–98% при температуре +40°С;

  6. холодоустойчивость при рабочей температуре -10°С и предельной температуре -50°С;

  7. воздействие инея и росы при температуре -20±5°С;

  8. теплоустойчивость при рабочей температуре +50°С и предельной температуре +65°С;

  9. воздействие морского тумана при температуре +27±2°С.

Машина выпускалась до 1990 года, было изготовлено 255 СЦВМ «Атака».
ЭВМ «Арфа»
Разработка машины была начата в 1979 году и предназначалась для работы в различных корабельных системах управления, как управляющее звено реального времени. Электропитание машины осуществлялось от корабельной трехфазной сети 220В, 400 Гц, потребляемая мощность составляла 1,7 КВт. Для охлаждением применялась приточно-вытяжная вентиляция с температурой входящего воздуха 18°С. Это была ЭВМ с двоичной системой представления чисел с фиксированной и плавающей запятой, быстродействие составляло 550 тысяч коротких операций в секунду при обращении за операндами в ОЗУ,1100 тысяч коротких операций при обращении в буферы регистры. Количество разрядов — 32, возможна была работа со словами двойной длины (64 разряда), с полусловами (16 разрядов) и с восьмеричной буквенной информацией.
Эта машина составила совместно с ЭВМ «Арка» и «Атака» ряд программно-совместимых машин третьего поколения ЦМНИИ «Агат». «Агат» — пионер в разработке боевых информационно-управляющих систем для надводных кораблей («Море», «Корень») и подводных лодок (система «Туча», «Алмаз», «Омнибус» и другие), а также систем управления стрельбой корабельных ракетных комплексов, систем управления и защиты ядерных энергетических установок.
ЭВМ «Туча»

вычислительная машина с пультом управления
ЭВМ «Туча» — машина с двоичной системой представления чисел с фиксированной запятой и количеством разрядов — 25. Числа были представлены модифицированным дополнительным кодом. Была с одноадрсесной системой команд, разрядность команд — 20. Быстродействие ЭВМ «Туча» — 62,5 тысяч коротких операций в секунду. ЭВМ состояла из 4 шкафов, которые были соединены механически и электрически. Для охлаждения применялась приточно-вытяжная система вентиляции с температурой входящего воздуха 18°С.

прибор, преобразующий аналоговые данные в цифровые и цифровые в аналоговые
Основой конструкции машины был шкаф для электронной аппаратуры оригинальной конструкции, это позволяло производить его погрузку на подводную лодку через стандартный люк диаметром 598 мм. Надежность СЦВМ «Туча» оценивалась 650 часов работы между неисправностями. Вычислительная система «Туча» потребляла около 17 кВт электроэнергии.
Ряд ЭВМ «Лада 2»
В 1986 году для надводных кораблей и подводных лодок была разработана ЭВМ «Лада-2», она состояла из трёх бортовых универсальных электронных вычислительных машин, была построена по модульному принципу, такая открытая система позволяла подключать дополнительные функциональные устройства.
ЭВМ ряда использовались для построения вычислительных комплексов в самых разнообразных системах, для сбора и обработки информации в реальном масштабе времени, автоматического управления различными объектами, автоматизации проектирования, автоматизации комплексных научных исследований, информационно-справочных и обучающих системах.
Машины ряда имели от двух до четырех модификаций. ЭВМ «Лада 2» — 2 модификации, ЭВМ «Лада 2Ю» -3 модификации, ЭВМ «Лада 2М» — 4 модификации. Они отличались составом устройств, способом охлаждения, конструктивным исполнением.
Основные параметры ЭВМ «Лада 2»: разрядность чисел с фиксированной точкой -1, 8, 16, c плавающей запятой — 32 (4 команды аппаратные), быстродействие -1200 операций в секунду. Память: адресное пространство 256 Кбайт, ОЗУ — 256, ПЗУ — 32, габариты первой модификации ряда — 703*450*276 мм, второй 480*350*212 мм, потребляемая мощность — 330 Вт.
ЭВМ «Лада 2» с архитектурной и программной совместимостью с широко распространенным в СССР коммерческими ЭВМ серии СМ ЭВМ (СМ4, СМ1420, «Электроника 100», «Электроника 79», «Электроника 60», ДВК, СМ1600) предоставляла пользователю возможность для применения в своей работе богатого прикладного ПО для ряда СМ ЭВМ.
Основные устройства ЭВМ «Лада 2» (НПО «Агат». ЭВМ «Лада 2». КА3.031110. Техническое описание. 1986 г.):

  • центральный процессор (ЦП), состоящий из модулей операционного блока ОБ (ОБ1, ОБ2), блока обмена информацией БОИ (БОИ1, Б0И2), диспетчера памяти ДП;

  • оперативная память, состоящая из модулей-накопителей ОЗУ (ОЗУ-64) и модуля правления УЗУ ОЗУ;

  • постоянная память для хранения контрольно-диагностических тестов, состоящая из модуля-накопителя ПЗУ (ПЗУ-16) и модуля управления УЗУ ПЗУ;

  • модули-контроллеры для связи с периферийными приборами: контроллер ввода-вывода КВВ, осуществляющий связи с дисплеем 15ИЭ-00-013 с интерфейсом ИРПС, гибкими дисками «Электроника ГМД 7012», алфавитно-цифровым печатающим устройством АЦПУ с интерфейсом ИРПР;

  • программируемый порт ПП для подключения устройств с нестандартным интерфейсом, в том числе и для стыковки нескольких ЭВМ;

  • адаптер общей шины АОШ, обеспечивающий выход ЭВМ на общую шину СМ ЭВМ;

  • контроллер связи с периферийными устройствами «Единство» КЕ (КЕ1 и КЕ2);

  • блок, согласующий выход ЭВМ на внешнюю магистраль МПИ;

  • пульт управления машиной ПУ, состоящий из электронного модуля ПУ и панели ПУ;

  • устройство электропитания УЭП, состоящее из блока управления ВБУ, фильтра питания ВФП, стабилизаторов питания ВПН 5/24.


корпусный вариант ЭВМ «Лада 2»
В 1988 году была создана «Лада 2Ю», в 1990 году -«Лада 2М».
Было налажено серийное производство, всего выпущено было 65 таких экземпляров различных модификаций.
В наше время практически отсутствуют официальные материалы, так как они через определённое время уничтожались из-за действующего в СССР «грифа» секретности, тем более в тех вещах, которые каким — либо образом касались военного дела и разработок в нем.
Ознакомиться с хронологией событий и разработок ЭВМ (1985-1989 годов) можно здесь
Collapse )
v3

Азаров: крепкий орешек... в изгнании ли?

Оригинал взят у imed3 в Азаров: крепкий орешек... в изгнании ли?
Вопрос с правительством в изгнании оказался не так прост, как мог бы показаться на первый взгляд.
При более обстоятельном подходе выяснился целый ряд крайне значимых и весьма основательных составных элементов возможных решений. Их хотя и конечное, как нам это и виделось ранее число, но все же больше чем виделось вначале.
Мы должны еще с этим дополнительно и отдельно разобраться.
Время еще по видимому есть.
Поддержать наш блог, imed3, вы можете в любое время переводом на кошелек Веб Мани. Webmoney:
В рублях R112965361105
В евро E241657074370
В долларах США Z159037753280