Глава 6. Перспективные направления в развитии вычислительных систем Нанотехнология Существующая технологическая база производства ЭВМ имеет предел своего развития, причем, по прогнозам разработчиков, этот предел будет достигнут в ближайшие годы. Дальнейшие разработки в области построения ЭВМ и ВС направлены на исследования новых физических явлений и создание новых информационных технологий. Прорыв в области создания новых ЭВМ и ВС связывают в первую очередьс нанотехнологией. Нанотехнология(от греческого «нанос» - карлик) - термин, используемый для описания процессов, происходящих в пространстве, с линейными размерами от 0,1 до 100 нм (1 нм=10-9 м). По мнению одного из создателей водородной бомбы и американской программы СОИ Э. Теллера: «тот, кто раньше овладеет нанотехнологией, займет ведущее место в техносфере следующего столетия». О роли нанотехнологии говорят такие цифры. Если в 2001 г. оборот мирового рынка нанопродукции составил 45 млрд. долларов, то к 2015 г. он достигнет суммы порядка 1 трлн. долларов. Термин нанотехнология был предложен в 1974 г. японским исследователем Танагучи. Рассмотрим основные этапы развития нанотехнологии в 20-м веке. 1959 г. Лауреат Нобелевской премии Ричард Фейнман заявляет, что в будущем, научившись манипулировать отдельными атомами, человечество сможет синтезировать все, что угодно. 1981 г. Создание Г. Бинигом и Г. Рорером сканирующего туннельного микроскопа – прибора, позволяющего осуществлять воздействие на вещество на атомарном уровне. 1982-85 г.г. Достижение атомарного разрешения. 1986 г. Создание атомно-силового микроскопа, позволяющего, в отличие от туннельного микроскопа, осуществлять взаимодействие с любыми материалами, а не только с проводящими. 1990 г. Манипуляции единичными атомами. 1994 г. Начало применения нанотехнологических методов в промышленности. История технологии, несомненно, станет яснее, если вспомнить, что сначала за основу для ее построения была взята универсальная метрическая мера – рост человека, который, как правило, лежит в пределах от 1,5 до 2 м. Точное значение не столь уж важно – главное, что мерилом в технологии служит метр. Действительно, именно это всегда определяло производство бытовых предметов: ни сами предметы, ни механизмы, применяемые при их изготовлении (от палки и топора до современных станков), неразумно было делать слишком малыми. Можно сказать, что большинство вещей и механизмов – продукты метровой технологии. И, тем не менее, миниатюризация вещей и механизмов оставалась мечтой умельцев всех времен и народов. Вспомним хотя бы знаменитую блоху нашего «умельца» Левши. Переход к миллиметровой технологии (1 мм = 10-3 м), обусловленный возникновением электроники, произошел в середине ХХ века. Основные размерные характеристики вакуумной лампы, созданной в 40-х годах (расстояния между проволочками сетки, катодом и анодом и т.д.) не превышали нескольких миллиметров. Однако с развитием электроники потребовалось уменьшить и эти размеры: чем миниатюрнее колба, тем быстрее срабатывает лампа, и тем меньше потребляется энергии. Но лампы приходилось собирать из отдельных деталей, что серьезно осложняло их миниатюризацию. С последующим сокращением размеров в 1000 раз началась эра твердотельной микротехнологии. С ней связан поразительный прогресс вычислительной техники во второй половине 20-го века. Люди научились размещать 1 млн. твердотельных транзисторов в интегральной схеме площадью 1 см2. Кристаллы кремния стали основой интегральных микросхем, миниатюризация которых привела к быстрому росту эффективности вычислительных машин. Рекордные результаты по миниатюризации микросхем на кремнии были достигнуты в 90-х годах благодаря электронной литографии – обработке кристаллов электронным лучом. Несмотря на практически полное отличие микропродуктов и способов их изготовления от изделий метровой и миллиметровой технологий, работают все они на базе одних и тех же классических законов. Например, закон Ома в равной степени справедлив и для бытового электронагревателя и для интегральной микросхемы. Таким образом, технологии от метровой до микрометровой можно считать классическими. По мнению ряда специалистов, классические законы уже перестают «работать» при размерах объектов менее 0,5 мкм. Здесь уже действуют законы квантовой физики. Именно здесь и начинается нанотехнология. Практическая нанотехнология родилась в 1981 г. с изобретением сканирующего туннельного микроскопа. Его изобретателями были Герд Бинниг (Gerd Binnig) и Генрих Рорер (Heinrich Rohrer) из исследовательской лаборатории IBM. Оба ученых за свои труды были удостоены Нобелевской премии. В 1990 г. ученые Айглер и Швейцер из той же лаборатории IBM опубликовали статью «Позиционирование отдельных атомов с помощью сканирующего туннельного микроскопа». В настоящее время Г. Бинниг продолжает работу в фирме IBM и занимается разработкой технологии жестких дисков нового поколения без записывающих/считывающих головок. Сам сканирующий туннельный микроскоп и очень похожий на него сканирующий проектор электронно-лучевой литографии стали прообразами машин будущей нанотехнологии, предвиденной Фейнманом. В сканирующем туннельном микроскопе очень острая игла движется над поверхностью материала на расстоянии, меньшем величины атома. Через иглу пропущен ток, и изменение расстояния между острием «иглы» и поверхностью вызывает резкий «скачок» электрического напряжения. Изменяя величину напряжения, можно «зацепить» атом и переместить его в нужное место. Главная трудность при реализации этой идеи заключается в возможности закрепления атома на новом месте. Для этих целей в настоящее время используют целый ряд методов. В 1997-1998 гг. агентством DARPA (Defense Advanced Research Projects Agency) США была разработана программа формирования новой наукоемкой технологии, получившей название молекулярной электроники или сокращенно молетроники (moletronics). Позже появились и другие термины из этой области, такие как бионика,биоинженерия. Целью программы DARPA было создание функциональных электронных устройств на основе нанотехнологии. При этом все создаваемые логические элементы и элементы памяти должны функционировать в привычном диапазоне температур, иметь высокую плотность и малую мощность электропотребления. Создаваемая память должна быть энергонезависимой, организована по байтному принципу, и иметь терабайтный объем. Сами функциональные устройства должны создаваться по принципу направленной самоорганизации, а их структура должна быть трехмерной. Одним из требований программы было то, чтобы все разрабатываемые устройства должны в какой-то мере «вписываться» в существующие производства электронной аппаратуры и не требовать его полной реконструкции. Еще не став практической реальностью, нанотехнология «родила» и новые понятия: квантовые точки, квантовые диполи, квантовые кучки, квантовые вычисления (КВ), квантовые компьютеры (КК), нанотрубки. Переход к нанотехнологии, несомненно, означает новый этап промышленный революции. К настоящему времени существует целый ряд разработок, основывающихся на элементах нанотехнологии. Например, компания IBM представила новую технологию хранения информации, с помощью которой можно будет добиться плотности записи порядка триллиона бит на квадратный дюйм. О своем достижении в данной области сообщила и компания НР. В ее лаборатории достигли наивысшей плотности на данный момент и создали демонстрационную 64-битную «микросхему» (скорее, «наносхему») энергонезависимой памяти, в которой роль ячеек памяти играют отдельные молекулы. Этот чип умещается на площади в один квадратный микрон. Кроме того, НР удалось совместить запоминающие и управляющие элементы в одном молекулярном устройстве. По заявлению ее руководителей, у компании НР уже разработана опытная методика производства нанолитографической печати, позволяющая делать копии чипов на пластинах, подобно тому, как делаются копии страниц с оригинал-макета в типографиях. Небольшая компания Nantero сообщила о создании нового экспериментального образца электронной памяти на базе углеродных нанотрубок. Инженерам удалось разместить на кремниевой пластине стандартного размера 10 млрд. ячеек памяти, каждая из которых состоит из нескольких нанотрубок. Углеродные нанотрубки (Single-Walled carbon NanoTubes – SWNT) были открыты в 1991 г. ученым С. Ижима (Sumio Iijima, NEC, Япония). Позже было выяснено, что данные образования имеют двойственную природу: они могут себя вести как проводники или как полупроводники, становящиеся проводниками при подаче напряжения определенной величины, при условии закручивания молекулы в спираль. Нанотрубка – это бесшовный цилиндр, созданный из пленки, сформированной из атомов углерода. Шестиугольные молекулы из атомов углерода получаются из молекул СО (угарный газ) в присутствии катализатора при высокой температуре. Следует отметить, что нанотрубка на порядок прочнее стали и в то же время в шесть раз легче. Для производства памяти используется стандартный фотолитографический процесс: вначале на подложку из оксида кремния наносится множество нанотрубок, а в ходе дальнейшей обработки неправильно ориентированные трубки удаляются. Схема памяти представляет собой две пластинки из оксида кремния, расположенные одна на другой на расстоянии около 100 нм. Нанотрубки как бы «подвешены» на верхней пластинке. При подаче на нижнюю пластинку тока трубки меняют свое положение, соединяя две пластинки. Это состояние соответствует наличию в ячейке бита со значением 1. Если же трубка не замыкает пластин, то в ячейке находится бит со значением 0. Положение нанотрубки определяется действием сил Ван дер Ваальса, которые действуют независимо от наличия электропитания. Электрический импульс нужен лишь для изменения положения трубок. При этом на переключение требуется около 0,5 нс против единиц наносекунд у современной оперативной памяти (подобная память получила аббревиатуру NRAM). Плотность записи информации в ячейки NRAM постоянно увеличивается и может достичь триллиона бит на квадратный сантиметр, что на несколько порядков больше, чем в случае современной оперативной памяти. Впрочем, до выхода новой памяти на рынок еще далеко. Углеродные нанотрубки являются все еще экзотическим и дорогостоящим материалом, а производство NRAM, хотя и базируется на традиционной фотолитографии, требует освоения в промышленности. Однако в перспективе NRAM может оказаться востребованным компьютерным рынком для решения проблемы хранения данных. Следует отметить, что к настоящему времени наиболее значимых результатов в сфере нанотехнологии достигли ученые США, Японии, Финляндии, Голландии и других стран. Старается не отставать в этом направлении и российская наука. На проходившей в 2005 году в Японии Всемирной выставке «ЭКСПО-2005» одним из наиболее посещаемым был российский павильон «Нанооборудование и нанотехнологии». В частности, большой интерес у посетителей вызвали разработки фирмы НТ-МТД.Фирма демонстрировала целый спектр зондовых микроскопов, являющихся инструментом, который позволяет развивать работу в области нанотехнологий. Успехи нанотехнологии породили целый ряд проектов, связанных с разработкой компьютеров и систем на их основе, использующих физические принципы, отличные от тех, что применялись при создании классических компьютеров. Среди этих проектов можно отметить работы, связанные с созданием молекулярных, оптических, квантовых, криогенных и нейрокомпьютеров. Молекулярные компьютеры Вопрос о создании молекулярного компьютера встал на повестку дня после того, как было доказано, что биологические и некоторые другие материалы, а также процессы, протекающие в них, можно использовать для создания элементов классической ЭВМ. Напомним, что критическим элементом полупроводниковой технологии является толщина изолирующего слоя оксида кремния между затвором и проводящим слоем транзистора. Определено, что физическим пределом полупроводниковой технологи является толщина не более 0,015-0,02 микрон (слой в 4-5 молекул). В более тонких слоях начинаются неконтролируемые процессы туннелирования электронов и перегрева, которые нарушают работу транзисторов и компьютера в целом. Кроме того, само формирование интегральной схемы с меньшими размерами транзисторов невозможно на базе стандартных методов фотолитографии. В таких условиях естественной выглядит идея построения ЭВМ, элементами которой будут выступать молекулы или объединения молекул. Отметим, что толчком к вспышке интереса к молекулярным ЭВМ послужила статья американских исследователей Л. Авирама и М. Ратнера «Молекулярный выпрямитель», опубликованная в 1974 г. Позже сотрудник Военно-морской исследовательской лаборатории (США) Ф. Картер предложил при разработке молекулярной ЭВМ использовать молекулы с резонансной туннельной проводимостью. При создании молекулярной ЭВМ важным моментом является вопрос о выборе необходимых материалов. Другим не менее важным вопросом является разработка методов для создания будущих элементов молекулярных ЭВМ. Главная трудность при разработке молекулярных ЭВМ – создание биокристаллов или биочипов (biochip), которые будут играть роль элементарных функциональных блоков ЭВМ. В настоящее время уже выполнен целый ряд работ по выбору белков, пригодных для создания молекулярных логических систем и переключателей. Новые материалы будут иметь малые размеры, низкое сопротивление, небольшое потребление энергии, нерассеиваемую электропроводность. Они будут обладать возможностью сборки в трех измерениях. В процессе исследований биокристаллов можно выделить три периода: 1. Разработка прототипов, основанных на известных биологических структурах типа мышечных волокон и демонстрация ожидаемых результатов (1985-1987 гг.). 2. Накопление знаний, необходимых для создания окончательной технологии построения биокристалла (1988-1992 гг.). 3. Создание прототипа устройства, основанного на молекулярных сборочных узлах с использованием методов, разработанных на предыдущих этапах (1993 г.-наст. время). В исследованиях в области создания биокристаллов различные научные школы использовали целый ряд биологических систем, среди которых можно выделить следующие. 1. Аппарат фотосинтеза. В этой системе перенос электронов частично облегчается хинонами. Хиноны – промежуточные продукты в синтезе красителей, относящиеся к группе циклических дикетонов. Трудность заключается в необходимости контроля за нежелательным переносом электронов и поглощением протонов. 2. Микротубулы. Это цилиндрические белковые полимеры, обнаруженные во всех живых клетках. Доказано, что эти полимеры могут играть важную роль в клеточной коммутации и обработке информации. 3. Порфирины, являющиеся компонентами гемоглобина и хлорофилла. В их структуру также входят ионы некоторых металлов. При надлежащей конформации молекул они могут действовать как молекулярная схема с переключением в форме парамагнитного резонанса, вызываемого видимым светом. 4. Видимые пигменты. Система пигментов, определяющая зрительное восприятие, аналогична переключателю в том отношении, что она поглощает фотоны и образует продукты фотосинтеза путем обратимой реакции, при которой эти два состояния могут различаться по спектрам и разности потенциалов. 5. Молекулы ДНК. Используется технология рекомбинантных молекул ДНК для получения цепочек с целью создания трехмерной молекулярной логической схемы. На настоящий момент программы по созданию элементов молекулярных ЭВМ выполняются как минимум в 12 организациях, включающих национальные агентства, международные компьютерные организации, европейский консорциум, объединяющий фирмы и научные центры многих стран. В России подобные исследования ведутся в центре фотохимии РАН, Южном научном центре РАН, Институте проблем химической физики РАН, Институте органической химии им. Н.Д. Зелинского, Международном томографическом центре РАН, МГУ, Ростовском госуниверситете и др. По предложению президента РАН Ю. Осипова планируется разработка академической программы в области молекулярных ЭВМ. Реализация этой программы даст шанс России не отстать от мирового уровня. Хотя о создании молекулярного компьютера говорить пока рано, но основная структурная схема его уже ясна. Молекулярный электронный прибор состоит из проводящих и непроводящих полимерных цепочек, связанных друг с другом специальным кремниево-содержащим «мостиком». Из этих цепочек формируется переключающее устройство. Переходы электронов из проводящей цепочки в непроводящую переводят устройство из проводящего состояния в непроводящее и наоборот. Поскольку биочипы способны избирательно реагировать на различные изменения окружающей среды, они могут отражать не только состояние «включено» и «выключено», но и некоторые промежуточные состояния. Предполагается, что молекулярные электронные приборы могут быть в 1000 раз меньше, а их быстродействие - на несколько порядков больше, по сравнению с современными интегральными схемами. Таким образом, структура молекулярного компьютера должна в общем случае обязательно включать три элемента: · переключатели; · память; · соединяющие проводники. Рассмотрим последние достижения при разработке этих составляющих. Одним из вероятных «кандидатов» на роль основы молекулярной ЭВМ является бактериородопсин (БР), открытый в 1971 году. В настоящее время разработана технология создания пленок БР, представляющих собой полимерные матрицы различного состава с включенными в них молекулами белка. Заметим, что впервые в мире такие пленки были получены в нашей стране в рамках проекта «Родопсин» в 80-х годах 20-го столетия. Эти пленки получили название «Биохром» и стали пользоваться в качестве фотохромных материалов и среды для голографической записи. Значительных успехов ученые достигли при работе с молекулами псевдоротоксана. Эта молекула, играющая роль переключателя, была изучена еще в 90-е годы, но методы практического ее использования в настоящее время разрабатываются. При создании образцов молекулярной памяти используют фульгиды индольного ряда. Компания Constellation SD объявила о создании первого трехмерного (многослойного) флуоресцентного диска FMD-ROM, материалом для которого служат 2-индолилфульгиды и 3-индолилфульгиды. По утверждению фирмы, первые готовые к выпуску образцы вмещают на десяти слоях 12-сантиметрового диска до 140 Гбайт данных. Перспективная технология, уже разработанная компанией, позволяет увеличивать число слоев, а значит, и объем записываемой информации. Японские ученые в качестве объекта исследования используют молекулы диарилэтена. Эти работы ведутся в рамках проекта международного научно-технологического центра (МНТЦ), в котором принимают участие Институт Органической химии им. Н.Д. Зелинского РАН, Фотохимический центр РАН и НИИ физической и органической химии Ростовского государственного университета. Ученые М. Рид (Йельский университет) и Д. Тур (компания НР) создали «сэндвич» примерно из 1000 молекул дитиола и поместили его между золотыми электродами. При определенном напряжении, поданном на электроды, этот «сэндвич» удерживает электроны, т.е. хранит данное состояние в памяти, в течение примерно 10 минут. Напомним, что кремниевая память DRAM удерживает такое состояние всего на миллисекунды. В качестве третьего элемента (проводников) архитектуры молекулярной ЭВМ предлагается использовать: проводящие полимеры (допированный полиацителен, политиофен, полианилин и др.); различные органические проводники; нанотрубки (углеродные и боразатные). Молекулярные транзисторы, память и проводники– три составные части будущего молекулярного компьютера, и в их создании по отдельности, как следует из вышеизложенного, есть определенные успехи. Но до решения задачи сборки всех компонентов в работающее устройство еще далеко. Здесь предполагается использовать принцип молекулярного распознавания, предполагающийсамосборку и самоорганизациюсложных ансамблей и агрегатов молекул. Этот же принцип лежит в основе таких сложных структур, какдвойная спираль ДНК, жидкие мембраныиглобулярные протеины. Задача сборки молекулярной ЭВМ пока не решена. Ученые предполагают делать гибридные устройства, сочетающие достоинства молекулярного подхода с наиболее успешными технологическими вариантами, найденными для кремниевых технологий. Например, используя повышенное сродство атомов серы в органических молекулах к тяжелым металлам (особенно золоту), можно создать контакты между металлическими электродами и молекулярными проводниками. До сих пор мы рассматривали примеры, когда все функции компонентов компьютера обеспечиваются передвижением электронов в сложных молекулярных ансамблях. Между тем эти функции могут взять на себя и фотоны. Существуют различные варианты фотонных устройств, например, молекулярный фотонный транзистор. В фотонном транзисторе фрагмент молекулы, поглощающий квант света (дипиррилбородифторид), играет роль стокового электрода, следующая молекула (цинковый порфирин) – проводника, а последний излучающий порфириновый фрагмент молекулы соответствует электроду истока. Магниевый порфирин работает как управляющий электрод-затвор. Если окислить этот затвор, то после поглощения света перенос энергии происходит не на цинковый порфирин, а на неизлучающий магниевый. В компьютерах на подобных транзисторах, регулирование всей его работы будет происходить с помощью света. Интересны исследования заведующего кафедрой «Компьютерные науки» инженерной школы Университета Южной Калифорнии доктора Леонарда Адлемана, которому удалось создать прообраз молекулярного компьютера. В течение 35 лет он проводил исследования по использованию молекулы ДНК в качестве элементной базы компьютера. По его заявлению, молекулы ДНК в течении четырех часов были использованы для вычисления ответа сложной математической задачи. Микроскопические двойные спирали ДНК рассматривались как путешествующие коммивояжеры. В математике эта задача известна как «проблема ориентированного графа Гамильтона» и посвящена составлению оптимального маршрута. Реально ученым были избраны семь аэропортов, каждый из которых имеет только по одному прилетающему и улетающему рейсу. Необходимо было спланировать маршрут для посещения аэропортов таким образом, что посещение каждого аэропорта осуществлялось лишь один раз. Заметим, что эта задача имеет экспоненциальную сложность. Однако, для реализации предложенной идеи на практике, необходимо преодолеть ряд препятствий. Одним из них является то, что пока неясно как использовать «столь огромное количество дешевых операций для решения реальных вычислительных проблем». Доктор Л. Адлеман говорит: «Я полагаю, что важно суметь применять более тонкие алгоритмы типа таких, что ведут более «интеллигентный» поиск в пространстве решений. Для того, чтобы это произошло, может быть необходимо найти или разработать новые молекулярные «примитивы». Эта задача представляется мне труднейшим препятствием и наиболее интересной с научной точки зрения». Предполагается, что для проблем, где необходим массивный параллельный поиск, молекулярные компьютеры смогут соперничать с электронными уже в ближайшем будущем. Касаясь будущего молекулярного компьютера он говорит: «Сегодняшние суперкомпьютеры могут выполнять около триллиона операций в секунду. Молекулярные компьютеры смогут, предположительно, выполнять более 1000 триллионов операций в секунду. Кроме того, они могут быть в миллиард раз более экономичны энергетически. А размещение информации в ДНК требует около одной триллионной доли пространства, необходимого современным средствам хранения типа видеоленты». В таблице 6.1 приведены обобщенные характеристики классических и будущих молекулярных ЭВМ. Таблица 6.1 Сравнительные характеристики классических и молекулярных ЭВМ Характеристика (параметр) | Классическая ЭВМ | Молекулярная ЭВМ | Размер транзистора, нм | до 100 | 1-10 | Число транзисторов на 1 см2 | до 107 | ~1013 | Время отклика, с | <10-9 | до 10-15 | Эффективность | Условно принимается равной 1 | ~1011 | Оптический компьютер Под термином «оптический компьютер» обычно понимают устройство обработки информации с использованием света. Говоря об отличительных особенностях света как электромагнитной волны, нужно отметить, что частота световой волны на порядок выше частоты электрических сигналов и волн, используемых в современной компьютерной технике. Потому с помощью световой волны в фиксированный интервал времени можно передавать большее количество информации. Кроме того, поскольку длина световой волны мала, то имеется возможность обработки информации с высокой скоростью. Следует отметить, что в компьютерах традиционной архитектуры широко используются оптические явления. В подсистеме ввода-вывода применяются оптические устройства – приводы оптических дисков, сканеры и лазерные принтеры. В подсистеме связи и передачи информации используется оптическое волокно. Передача информации по оптическому волокну заключается в распространении по нему света, при этом скорость передачи на порядок превосходит скорость передачи электрического сигнала. Сочетание оптических и электронных устройств образует оптоэлектроннуюсистему. Первые работы, относящиеся к оптическим или оптоэлектронным ЭВМ, появились в 50-х годах 20-го столетия. Интерес к этим ЭВМ был обусловлен целым рядом преимуществ, которыми они обладали по сравнению с традиционными (классическими) ЭВМ. Среди этих преимуществ следует отметить возможность параллельной обработки информации и осуществления сложных двумерных операций типа комплексного преобразования Фурье, корреляции и свертки. Оптические лучи не воздействуют друг на друга, не создают ни коротких замыканий, ни перекрестных помех. Это обеспечивает очень высокую плотность оптических соединений больших массивов оптических логических элементов, недостижимую в системах электронных СБИС. Наиболее эффективно эти ЭВМ можно использовать при обработке изображений, поскольку для таких ЭВМ изображение является естественным двумерным операндом, а основные операции обработки изображений - преобразование Фурье и пространственная фильтрация - осуществляется за один такт работы машины. Исходя из этого, сразу же была определена возможная сфера применения таких ЭВМ. Предполагалось, что они будут использоваться в задачах распознавания и идентификации образов, анализа изображений земной поверхности, полученных при аэрофотосъемках, анализе движения облаков и воздушных масс по изображениям, полученным с метеорологических спутников и др. Исходя из состояния технической базы, первые оптические ЭВМ пытались создавать с использованием таких источников света, как ртутные лампы и даже солнечный свет. Однако такие попытки оказались тщетными, и интерес к оптическим ЭВМ стал затихать. Так, например, компания IBM на создание оптической ЭВМ истратила более 100 млн. долларов, но в конце концов прекратила работы в этом направлении. Вновь интерес к оптическим ЭВМ возник в 60-х годах после появления первых промышленных лазеров. Однако и тогда не удалось создать полностью оптическую цифровую ЭВМ. Были предприняты попытки создать оптоэлектронную гибридную вычислительную систему (ГВС). Гибридная ВС включала в свой состав когерентный аналоговый оптический процессор, выполнявший основные операции по параллельной обработке двумерного потока данных, и цифровой электронный процессор, который обеспечивал цифровую обработку, ввод-вывод данных и программное управление процессом обработки. В оптический процессор информация могла поступать из видеоканала, кинопленки, аналоговой памяти, оперативной или внешней памяти, электронного процессора. Входная информация загружалась в специальное устройство ввода, которое представляло собой матричный пространственный модулятор света. Далее информация поступала в оптическую систему процессора для фильтрации. Операционные фильтры могли быть записаны на обычную фотопленку или оперативный носитель в виде библиотеки стандартных фильтров, или же синтезированы в процессе обработки информации. Библиотека стандартных фильтров записывалась в виде двумерной матрицы подобно матрице фурье-голограмм. Спектр входного сигнала направлялся на нужный операционный фильтр с помощью дефлектора, управлявшего излучением лазера. В спектральной плоскости оптического процессора могло храниться до 102 и более операционных фильтров. Съем информации осуществлялся как в выходной плоскости оптического процессора, так и в ее спектральной плоскости. Для этой цели использовались интегральныефотоматрицы. Информация с выхода этих устройств передавалась на электронный процессор для логического анализа, выработки дальнейших управляющих сигналов и отображения результатов. Результаты обработки могли быть переданы в аналоговую или цифровую память, отображенынадисплее или выведенынапечать. При практической реализации предложенной схемы главная трудность заключалась в отсутствии (на тот момент) эффективных и доступных оперативных устройств ввода информации и синтеза операционных фильтров. Хотя позже и были созданы более современные устройства ввода с оптическим и электрическими входами, ГВС все же не получили широкого распространения. Причиной этого следует считать недостаточный уровень развития технологической базы. В 1986 году исследователь из AT&T Д. Миллер создал самый маленький в мире оптический переключатель - квадрат со стороной в 10 микрон. Этот переключатель был создан из современных синтетических материалов, обладал скоростью 1 млрд. переключений в секунду и при этом не грелся. Миниатюрный переключатель представлял собой зеркальце, на поверхность которого падал лазерный луч. Луч отражался, что соответствовало положению«включено»или1. Затем на зеркальце падал луч контрольного второго лазера, что делало его неспособным к отражению. Этосоответствовалосостоянию«выключено»или0. Позже были изготовлены симметричные самоэлектрооптические устройства, получившие название SEED (SEED - self-electrooptic device), работающие в режиме ИЛИ-НЕ, и симметричные самоэлектрооптические устройства(S-SEED), работающие в режиме защелки (установка-сброс). Из этих устройств можно было изготавливать сумматоры и другие элементы, применяемые для изготовления ЭВМ. Первым практическим применением оптоэлектронных элементов стали системы, которые работали в последовательном режиме, и в которых обрабатываемые данные уже имелись в форме оптических сигналов. Рис. 6.1. Пятиканальный оптический переключатель В первой оптической ЭВМ в качестве логических элементов использовались соединители (переключатели) оптических каналов на LiNbO3 (ниобат лития), а в качестве элементов памяти - волоконно-оптические линии задержки. Соединители на LiNbO3 использовались в качестве пятиканальных оптических устройств. Схема такого пятиканального переключателя представлена на рис.6.1. Если в канале C сигнала нет, то свет, вошедший по каналу A, выйдет из канала E, а вошедший по каналу B - через канал D. При поступлении светового сигнала по каналу C комбинация «фотодиод-усилитель» выдает сигнал смещения, переводящий устройство в состояние прямого включения. При этом свет, поступающий по каналу A, выходит по каналу D, а свет, поступающий по каналу B - по каналу E. На основе такого переключателя можно построить такие логические элементы, как И, И-НЕ, НЕ, Буфер, ИЛИ и др. На рис. 6.2 представлен вариант реализации памяти с использованием линии задержки. Рис. 6.2. Оптическая память на линии задержки Известно, что число разрядов, умещающихся в петле, определяется соотношением: , | (6.1) | где L - длина световодного контура; Lc- расстояние, проходимое оптическим импульсом за один тактовый период. Например, для размещения 2 Кбайт в оптической памяти с использованием стеклянного волоконно-оптического световода при тактовой частоте 1ТГц длина петли должна быть равна 3,3 м. Если тактовая частота будет равна 100 МГц, то длина петли увеличится до 3,3 км. Следует заметить, что верхний предел числа разрядов N, которые можно записать в петле, определяются тепловыми эффектами. Вследствие потерь в оптических волокнах, коммутирующих и входных устройствах, будет происходить падение амплитуды сигнала. Поэтому необходимо предусмотреть компенсацию падения амплитуды. Одним из способов синхронизации и компенсации падения амплитуды является переключение копии тактового сигнала из канала А в петлю после прихода сигнала на S1. На рис.6.3 приведена схема оптического 4-разрядного счетчика. Обозначения на рис.6.3 имеют следующий смысл: S1- демультиплексор, S2- схема И-НЕ, S3- инверсионная выборка, D - линия задержки, C - контур переноса, S4, S5 – расщепители, M - контур памяти. Работу счетчика можно описать следующим образом. Приход импульса на S1 переключает его таким образом, что копия тактового сигнала (вход B) направляется через выход E в волоконно-оптический канал. В расщепителе S4 импульс расщепляется и, в зависимости от наличия или отсутствия в контуре M циркулирующего разряда, направляется или в контур памяти M, или в контур переноса C. Если в контуре M присутствует разряд, то сигнал, поступивший по каналу C переключателя S2, вызовет переключение импульса на контур переноса и подавление его в переключателе S3. Если в контуре M разряд отсутствует, то импульс подавляется в переключателе S2 и заводится в контур памяти переключателем S3. Рис. 6.3 Схема четырехразрядного оптического счетчика Важным является вопрос о тактовой частоте, которая зависит не только от частоты повторения лазерных импульсов, но и главным образом от задержек в цепи обратной связи. Применительно к контуру переноса C, тактовый период не может быть меньше полной задержки при проходе по контуру, поскольку разряд в контуре задержки должен обойти его и вернуться на переключатель S1 в определенный момент времени, с тем, чтобы переключить следующий входящий импульс. Одна из старейших архитектур, разработанных для оптических компьютеров, архитектура OPLA (Optical Programmable Logic Array) – оптическая программируемая логическая матрица. Многолетние работы по реализации этой архитектуры проводились в Японии. На оптических интегральных схемах была реализована вся булева алгебра. Считалось даже, что компьютеры 5-го и 6-го поколений будут реализованы на оптической элементной базе. Но доведение до стадии коммерчески пригодных продуктов оказалось сложней и длительней, чем ожидалось, и в последнее время сообщений о каких-либо успехах в этом направлении не было. В 1993 году в Университете Колорадо профессорами Джорданом и Хейрингом был продемонстрирован оптический компьютер размером с небольшой автомобиль и мощностью недорогого ПК. Оперативная память ОЭВМ представляет собой четырехкилометровые петли оптического волокна. По ним циркулируют импульсы инфракрасного излучения. Четырехметровый импульс кодирует 1, его отсутствие – 0. Кодированные таким образом команды и данные курсируют в линиях задержки, пока управляющий элемент не направит их в процессор. Архитектура получила название bit-serial architecture («последовательная битовая архитектура»). Потоки информации (лучи) коммутируются в процессоре 66 электрооптическими переключателями на LiNbO3. По утверждению разработчиков, их детище - просто демонстрация принципиальной возможности создания оптической ЭВМ и не может рассматриваться, как прототип компьютера будущего. Несмотря на то, что простые оптические компоненты (переключатели, счетчики, мультиплексоры, демультиплексоры и т.п.) могут работать на тактовых частотах 40 ГГц и более, энергопотребление многоцветных лазеров значительно превышает даже самые «прожорливые» полупроводники на базе арсенида галлия. Нелишне подчеркнуть, что примитивная схемотехника оптических систем все еще оставляет желать лучшего, делая их малопригодными для реализации вычислительных машин общего назначения. Работы в области создания оптических ЭВМ велись и в бывшем СССР, ведутся и сейчас в России и на Украине (коллектив ученых АН Украины под руководством М.С. Соскина). Большие успехи были достигнуты в использовании явления нелинейного распространения в оптоволоконных линиях. Еще до создания фирмой АТ&Т своего оптического переключателя, наши ученые уже использовали в подобного рода переключателях явление низкой нелинейности с удлиненной дистанцией распространения. Это явление было использовано для усиления кумулятивного эффекта взамен применяемого ранее явления высокой нелинейности. Долгое время в России осуществлялся проект создания оптической сверхвысокопроизводительной вычислительной машины(ОСВМ). Работы по этой теме были начаты еще в 1985 г. в лаборатории академика Г.И. Марчука. В соответствии с проектом оптика в новой ЭВМ должна была использоваться в системах связи и коммутации. Архитектура ОСВМ предусматривала новую организацию вычислительного процесса, структурную надежность и исключение человека из распределения вычислительных ресурсов. ОСВМ должна была дать производительность порядка 1015 FLOPS. Однако, в отличие от американских разработок, эта машина должна была потреблять в десятки раз большую энергию (из-за худших топологических норм), порядка 10 МВт. Было найдено оригинальное схемотехническое решение, которое исключало задержки распространения сигналов внутри машины и позволило ввести жидкостное охлаждение, раздвинуть блоки и компенсировать высокую рассеиваемую мощность интегральных схем. В дальнейшем к работе над ОСВМ подключился вновь созданный Институт высокопроизводительных вычислительных систем (ИВВС), директором которого стал академик В.С. Бурцев. К сожалению, в 1998 г. после его ухода работы затормозились. Первым коммерческим оптическим компьютером считается Enlight 256 израильской фирмы Lenslet, представленный в 2003 г. Оптический процессор представляет собой цифровой сигнальный процессор с оптическим ускорителем. По сути этот компьютер является гибридным, т.к. он не полностью оптический, а содержит различные преобразователи света, т.е. ядро компьютера – оптическое, а все остальное – электронное. Ядро состоит из 256 VCSEL-лазеров, пространственного модулятора света, набора линз и фотоприемников. Производительность процессора составляет 8 TFLOPS, такт – 8 нс. За один такт он может перемножить матрицы размером 256х256. К оптоэлектронному компьютеру второго поколения можно отнести и компьютер специального назначения Zebra True Recognition корпорации Mytec Technologies, который был представлен в 1995 году. Этот компьютер предназначен для распознавания дактилоскопических изображений, определения поддельных документов, в том числе страховых полисов, кредитных карточек, а также для идентификации пользователей при входе в корпоративные базы данных. При сравнении отпечатков пальцев он работает сразу со всей картинкой, а не с ее фрагментами, как это делают современные системы. В заключение заметим, что ближайшее будущее компьютерной техники – за машинами, в которых будут творчески сочетаться компоненты оптики и электроники. Электронные узлы процессора могут быть связаны высокоскоростными световыми волнами информации, которые уже не будут причиной перегрева медных проводов. Электроника хорошо зарекомендовала себя в вычислительных операциях, оптика – в передаче информации. Так что завтрашним днем можно считать оптикоэлектронный компьютерный симбиоз. Квантовые компьютеры Среди проектов, посвященных созданию принципиально новых ЭВМ, наиболее перспективным представляется разработка квантового компьютера. Квантовый компьютер будет состоять из компонентов субатомного размера и работать по принципам квантовой механики. Работы в этом направлении ведутся во многих странах мира, но лидирующее положение занимают США. В США работами в этом направлении занимаются такие ведомства, как NSF (National Science Foundation), NIST (National Institute of Scince and Technology), DoD (Departament of Defense), DARPA (Defense Advanced Research Projects Agency), ONR (Office of Naval Research) и др. Кроме того, этими же вопросами занимаются и фирмы-производители ЭВМ, в первую очередь IBM. Одним из ведущих мировых центров в этой сфере является Центр спинтроники и квантовых вычислений (CSQC) Калифорнийского университета в Санта-Барбаре. Ведутся подобные работы и в России. В частности, этими вопросами занимаются институты РАН - теоретической физики им. Л.Д. Ландау, Физико-технологический и др. Следует отметить, что уже и в настоящее время существует множество систем, в которых квантовые эффекты играют существенную роль. В качестве примеров таких систем можно привести различные виды квантовых генераторов (лазеры, мазеры), современные микросхемы, диоды Ганна и др. Принято считать, что начало работам по квантовым компьютерам положила опубликованная в 1982 г. статья Р. Фейнмана, в которой нобелевский лауреат в области физики обратил внимание на то, что если имеется некоторое квантовое устройство, т.е. подчиняющееся законам квантовой механики, то его возможности будут значительно больше возможностей классических компьютеров. Справедливости ради следует отметить, что еще в 1980 г. советский математик Ю.И. Манин в своих статьях «Вычислимое и невычислимое» и «Доказуемое и недоказуемое» описал сюжет про квантовые автоматы, где он говорит о некоторых кардинальных отличиях этих автоматов от классических. В середине 80-х годов 20-го века появились работы Д. Дойча, Е. Бернстайна и У. Вазирини, А. Яо, в которых были описаны модели квантового компьютера. Например, была описана модель квантовой машины Тьюринга. Появившаяся в 1994 г. статья П. Шора (P.W. Shor, сотрудник фирмы Lucent Technologies, математик) вызвала лавинообразный поток публикацийо квантовых вычислениях (КВ). П. Шор предложил квантовый алгоритм, позволяющий производить быструю факторизацию больших чисел. Напомним, что все известные алгоритмы для обычного компьютера – экспоненциальные, т.е. время их вычисления растет как экспонента от числа знаков в записи факторизуемого числа. Так, например, факторизация 129-разрядного числа потребовала бы 500 MIPS-лет или 8 месяцев непрерывной работы системы из 1600 рабочих станций, объединенных через Интернет. А факторизация числа в 500 разрядов потребует времени, превышающего возраст Вселенной, и одновременную работу всех существующих в мире компьютеров. Алгоритм П. Шора, по сравнению с другими, дает многократное ускорение вычислений, причем, чем длиннее факторизуемое число, тем значительнее выигрыш в скорости. В 1996 г. коллега П. Шора Л. Гровер (L. Grover) предложил квантовый алгоритм быстрого поиска в неупорядоченной базе данных. Этот алгоритм позволяет не только ускорить процесс поиска, но и увеличить примерно в 2 раза число параметров, учитываемых при поиске оптимальным способом. Независимо от П. Шора наш ученый А. Китаев (ИТФ им. Л. Д. Ландау) также разработал квантовый алгоритм для решения задачи о дискретном логарифме и некоторых других более общих задач. Именно середину 90-х годов 20-го столетия можно считать временем рождения новой отрасли вычислений – квантовых вычислений(КВ), т.е. вычисления на квантовом компьютере (КК). Хотя самого КК еще не существует, но уже имеются подходы для его построения. Прежде чем рассматривать структуры КК, кратко рассмотрим суть КВ. В КВ, как и в обычных компьютерах, оперируют понятием бит, которое в этом случае носит названиекубит (qubit, quantum bit). Если обычный бит - это пространство состояний из двух элементов 0 и 1, то кубит – это двумерное комплексное пространство. В квантовой системе можно выполнять только унитарные преобразования пространства состояний системы. С точки зрения геометрии такие преобразования – прямой аналог вращений и симметрий обычного трехмерного пространства. Согласно принципу суперпозиции, можно складывать состояния, вычитать их и умножать на комплексное число. В самом общем случае элементарным шагом при КВ является унитарная операция L-кубитовой суперпозиции состояний регистра из L кубитов. Заметим, что при этом выполняется параллельная обработка сразу всех 2L комплексных амплитуд. Для классической ЭВМ подобная операция потребовала бы 2L отдельных элементарных шагов. В КВ вычислительный процесс носит характер интерференции, т.е. комплексные амплитуды состояний многих кубитов могут складываться конструктивно и деструктивно. Кубит - квантоваячастица, имеющая два базовых состояния. Этим состояниям могут соответствовать, например, основное и возбужденное состояние атома, направления вверх и вниз спина атомного ядра, два возможных положения электрона и др. Вне зависимости от принятой структурной схемы, основным элементом КК является квантовый регистр. Квантовый регистр - это цепочка кубитов, над которыми можно выполнять одно- и двухбитовые логические операции. К базовым состояниям квантового регистра, образованного L кубитами, также как и в классическом регистре, относятся все возможные последовательности нулей и единиц длины L. Всего возможно 2L различных комбинаций. Их можно считать записью чисел в двоичной форме от 0 до 2L -1. Но, в отличие от классического регистра, кроме этого существуют еще и состояния суперпозиции, задаваемые комплексными амплитудами. Следует заметить, что небольшие квантовые регистры (L<20) могут служить лишь для демонстрации отдельных узлов и принципов работы КК, практической ценности они не имеют. Практически ценный КК должен содержать не менее тысячи кубитов. Независимо от физической основы КК, принципиальная схема его работы может быть в упрощенном виде описана следующим образом. До ввода информации в КК все кубиты квантового регистра должны быть приведены в основные базисные (булевые) состояния. Эта операция называется инициализацией. Далее каждый кубит подвергается селективному воздействию, например, с помощью импульсов внешнего электромагнитного поля, управляемого классическим компьютером. С помощью этого поля кубиты будут переведены в неосновное состояние, что приведет состояние всего квантового регистра в суперпозицию базисных состояний, задающих бинарное представление числа n в виде | (6.2) | На рис. 6.4 представлена структурная схема квантового компьютера. При выборе конкретной схемы КК необходимо решить три принципиальных вопроса: 1. Выбор элементной базы (физической среды), которая будет обеспечивать необходимое количество кубитов. 2. Выбор физического механизма, определяющего взаимодействие между кубитами. 3. Определение способа управления кубитами и измерения их состояния на выходе. В настоящее время ведутся исследования над двумя различными архитектурами КК: типа клеточного автомата и в виде сети логических элементов. Принципиальных преимуществ ни одна из этих архитектур не дает. Рис. 6.4. Структурная схема квантового компьютера В качестве физических явлений, используемых в качестве основы для логических элементов КК, предлагается использовать: взаимодействие одиночных поляризованных фотонов или лазерного излучения с веществом или отдельными атомами; квантовые точки; ядерный магнитный резонанс (ЯМР); объемный спиновой резонанс. Наиболее реальной на сегодняшний день является реализация КК, использующего объемный спиновой резонанс. В качестве кубитов здесь используются ориентации ядерных спинов. Работа логических ячеек и запись кубитов осуществляется радиочастотными электромагнитными импульсами со специально подобранными частотой и формой. Основным логическим элементом такого КК будет управляемый инвертор. Ожидается, что уже в ближайшем будущем будет создан КК с разрядностью в 10 кубит. К настоящему времени определены следующие основные требования, предъявляемые к физической среде, в которой будет реализован КК. 1. Физическая система, представляющая полномасштабный КК, должна состоять из точно известного числа кубитов, число которых должно быть не менее 103. 2. Должна быть обеспечена возможность приведения системы в известное начальное состояние (инициализация входного регистра). 3. Необходимо обеспечить высокую степень изоляции КК от внешней среды. Система кубитов должна быть слабо связна с окружением. 4. Необходимо уметь изменять состояние системы в соответствии с заданной последовательностью унитарных преобразований ее фазового пространства. 5. Необходимо обеспечить с достаточно высокой степенью надежности измерение состояний системы на выходе. Наиболее сложными при реализации являются требования 3 и 4. Рассмотрим в практическом плане те проекты создания КК, которые реализуются в настоящее время. 1. Первый прототип КК, основанный на взаимодействии между заряженными ионами и управлении ими с помощью лазера ИК-диапазона, был предложен австрийскими физиками И. Цираком и П. Цоллером в 1995 году. Реализация этого проекта показала основные недостатки используемого метода: необходимость создания сверхнизких температур, трудности в обеспечении устойчивости состояний ионов в цепочке и ограниченность возможного числа кубитов значением L£40. Тем не менее, работы в этом направлении ведутся в Лос-Аламосской лаборатории (LANL) и Национальном институте (NIST) США. 2. В 1997 г. в Массачусетском технологическом институте, лаборатории LANL (США) и Оксфорде (Великобритания) были выполнены первые эксперименты по использованию в качестве кубитов атомных ядер с ядерными спинами I=1/2. Первоначально для экспериментов использовались молекулы 2, 3-дибромотиофена и трихлорэтилена. Позднее использовались молекулы цитозина, хлороформа, аланина и др. жидкостей с числом спинов-кубитов L=3,5,6,7. Управление процессами осуществлялось с помощью радиочастотных импульсов. Компьютер такого рода получил название ансамблевого КК на основе ЯМР. 3. В 1998 г. Д.В. Аверин предложил использовать в качестве кубитов зарядовые состояния куперовских пар в квантовых точках, связанных переходами Джозефсона. В 1999 г. в Японии (фирма NEC) на этих принципах был создан первый твердотельный кубит. 4. Российский исследователь М.В. Фейгельман (ИТФ им. Л.Д. Ландау) предлагает собирать квантовые регистры из миниатюрных сверхпроводящих колец. Каждое кольцо выполняет роль кубита, а состояния 0 или 1 соответствуют направлению электрического тока в кольце. Переключение кубитов можно осуществлять с помощью магнитного поля. 5. Группа, возглавляемая американским ученым И. Чангом, объявила о сборке 5-битового КК, где в качестве кубитов используются спины ядер некоторых органических молекул. 6. Группа ученых из фирмы IBM и Станфордского университета продемонстрировала семикубитный КК для факторизации чисел по алгоритму Шора. Компьютер правильно определил, что делителями числа 15 являются числа 5 и 3. По состоянию на 2001 г. это было самое сложное вычисление, выполненное КК. Компьютер представляет собой пробирку с 1018 молекул, имеющих 7 ядерных спинов. «Программирование» такого КК осуществляется с помощью электромагнитных импульсов разной частоты. Для получения результата используется ЯМР-сканер. 7. В 2004 г. в Институте компьютерной архитектуры и технологий программирования имени Фраунгофера разработан первый онлайновый эмулятор КК. Установка эмулирует работу 31 кубита и используется для проверки квантовых алгоритмов. Эмулятор представляет собой кластер из 32 узлов на базе процессоров AMD Athlon 3200 с общим объемом ОП 56 Гбайт. 8. В 2005 г. европейское отделение компании Hitachi объявило о создании «базисного элемента» КК. Работы проводились совместно с Кембриджским университетом. Полученный элемент представляет собой микроскопическую частицу размером 50х150 нм. Для работы элемента необходима температура, близкая к абсолютному нулю (-273°С). Полученное состояние кубитов, позволяющее выполнять параллельные вычисления, длилось 200 нс, что в 100 раз больше предыдущих результатов. Для сборки полноценного КК необходимо иметь сеть из 10 тыс. таких элементов. Предполагается, что к 2010 г. появятся первые КК с L=100 кубитов. Криогенные ЭВМ Под криогенной ЭВМ понимается такой компьютер, элементная база которого основана на явлениях сверхпроводимости и использовании криогенной техники. Понятно, что выделение таких ЭВМ в отдельный класс несколько условно, т.к. явление сверхпроводимости используется и при разработке других классов и типов ЭВМ. Однако в учебных целях мы считаем целесообразным рассмотреть этот класс ЭВМ отдельно. Следует отметить, что в большинстве разработок, посвященных криогенным ЭВМ, используется эффект Джозефсона, предсказанный в 1962 г. Эффект связан с протеканием сверхпроводящего тока через тонкий слой диэлектрика, разделяющего два сверхпроводника (т.н. контакт Джозефсона). Явление сверхпроводимости, т.е. резкое падение сопротивления материала при охлаждении до температур, близких к абсолютному нулю, было открыто в 1911 г. датским физиком Оннесом. Идея создания ЭВМ, элементная база которой использует явление сверхпроводимости, была высказана еще в 1948 г. Предлагалось использовать сверхпроводящее кольцо (СП), которое могло иметь два устойчивых состояния: наличие циркулирующего незатухающего тока можно было кодировать как 1, а отсутствие – как 0. В 1956 г. была предложена конструкция первого СП‑ключа - криотрона. Фирма IBM первой изготовила микросхему на пленочных криотронах, но в дальнейшем эту работу прекратила. Ряд фирм тоже предпринимали попытки создания сверхпроводящей (криогенной) ЭВМ, но также вынуждены были прекращать работы из-за их сложности. Та же фирма IBM в 1965 г.возобновила работы в этой области, но в 1983 г. работы опять были прекращены. В 1986 г., когда ее сотрудники К. Мюллер и Дж. Беднорц открыли высокотемпературную проводимость, работы вновь были возобновлены. Рассмотрим основные причины, которые заставляют исследователей заниматься криогенной ЭВМ. Хорошо известно, что быстродействие ЭВМ определяется в первую очередь временем срабатывания ее элементов. Независимо от поколения ЭВМ, до сих пор цикл ЭВМ был примерно в 50 раз больше времени срабатывания отдельного элемента (вентиля). Если предположить, что это соотношение сохраниться и дальше, то для достижения цикла 1 нс необходимо иметь элементы с временем срабатывания 20 пс. Если в качестве элементной базы ЭВМ использовать полупроводники, то такое быстродействие можно получить, лишь уменьшив длину канала до субмикронных размеров. Этого в принципе можно достичь, используя новые полупроводниковые материалы с высокой подвижностью носителей, охлаждаемые, например, жидким азотом. Однако для получения цикла 1нс недостаточно наличие сверхбыстродействующих элементов, их необходимо еще так упаковать, чтобы наиболее длинный путь сигнал проходил не более, чем за 1 нс, а это в лучшем случае 10 см. Из этого следует, что ЭВМ с циклом в 1 нс должна иметь объем в несколько кубических дециметров. Естественно, что в таком объеме трудно сосредоточить многокиловаттную мощность, которую потребляет современная высокопроизводительная ЭВМ, содержащая 107-108 транзисторов на процессор. Поэтому возникает новая проблема - уменьшение потребляемой мощности. Вот по этому показателю СП-элементы и находятся вне конкуренции. Благодаря их охлаждению до температуры 4,2° К, при которой тепловые потери незначительны, уровень информационных сигналов у них составляет 1 мВ по сравнению с 1 В у транзисторов. Поэтому, если у биполярных транзисторов энергопотребление составляет милливатт на вентиль, у полевых транзисторов - сотни микроватт, то у СП-элементов - единицы микроватт. Серьезная проблема, возникающая в цифровой полупроводниковой технике, - это межэлементные соединения на кристалле. Линии связи на кристалле определяют все основные параметры и в особенности быстродействие, которое с повышением степени интеграции снижается за счет увеличения средней длины, площади и погонного сопротивления металлизированных проводников. В современных ЭВМ 40% времени цикла теряется на соединениях. Эту проблему также можно решить с использованием СП‑элементов, т.к. СП-полосковая линия является идеальным средством передачи сигналов без искажения и затухания до частоты 1012 Гц. Задержка в такой линии составляет 0,08 нс/см, что значительно меньше, чем в обычной линии. Учитывая, что токонесущие возможности СП-линий выше, чем у обычных линий, эти линии можно делать более узкими и размещать более плотно и в меньшем количестве слоев. Если ориентироваться на уже существующие принципы организации вычислительного процесса, то согласно принципу Ландауэра, при работе в рамках классической логики любое переключение транзистора приводит к выделению тепла, пропорционального температуре транзистора. Если понизить температуру транзистора, можно будет понизить напряжение питания и, следовательно, уменьшить тепловыделение (снижать напряжение питания без снижения температуры процессора нельзя, так как это приведет к сбоям в работе). Как сильно требуется охладить процессор, чтобы добиться существенного выигрыша в тепловыделении? Из основного соотношения Ландауэра видно, что охлаждение процессора даже до температуры жидкого азота (77,4° К) не дает больших преимуществ, так как снижает тепловыделение по сравнению с режимом работы при комнатной температуре всего лишь в четыре раза. Если процессор без охлаждения рассеивал, допустим, мощность 60 Вт, то при температуре жидкого азота он будет рассеивать мощность 15 Вт. Охлаждение до температуры жидкого гелия (4,2° К) понижает температуру вычислительного процесса примерно в сто раз, что дает для рассматриваемого случая мощность рассеяния 600 мВт. Производительность нанокомпьютера, охлаждаемого жидким гелием, можно оценить следующим образом. Теплота испарения жидкого гелия примерно равна 3∙103 Дж/л. Таким образом, одного кубического миллиметра жидкого гелия, расходуемого за 1 секунду при температуре 4,2° К, будет достаточно для отвода ландауэровского тепла от машины с вычислительной производительностью примерно 5∙1019 MIPS. Если предположить, что одновременно будет переключаться 100 млн. одноэлектронных транзисторов, то рабочая частота нанокомпьютера может быть выше 100 ГГц, а тепловыделение – лишь 3 мВт. Создание криогенного наночипа – дело вполне реальное, так как в системе замкнутого оборота криогенного кулера должно быть всего несколько кубических миллиметров жидкого гелия. При широком коммерческом производстве гелиевые кулеры для ПК будут размером не более воздушных вентиляторов для современных процессоров. При этом они должны будут отводить тепловую мощность всего несколько милливатт. Для суперкомпьютерных центров можно создать более мощные нанокомпьютеры со стационарными криогенными установками. С другой стороны, 3° К – это температура космоса. Почему бы космос с его неограниченными холодильными ресурсами не подключить к решению проблемы роста вычислительных ресурсов на Земле? Суперкомпьютерные центры, расположенные на геостационарных орбитах с дешевым космическим холодом, оснащенные мощными информационными каналами связи с Землей, - новое направление развития IT-бизнеса в будущем. Хотя температуру рабочей среды компьютера можно еще понижать по сравнению с температурой жидкого гелия, при этом будут быстро расти и затраты на охлаждение. Известны и другие физические механизмы, используя которые, можно оптимизировать термодинамику классического компьютера. Дело в том, что принцип Ландауэра выводится в предположении, что вычислительная среда характеризуется одной температурой Т. Однако в физике известны среды с двумя и более температурами, то есть являющиеся термодинамически неравновесными. Пример – всем хорошо известные газоразрядные лампы дневного света. Атомно-молекулярная подсистема здесь характеризуется комнатной температурой (300° К), а система свободных электронов – температурой в 30-50 раз большей (10000° К). Поэтому в вычислительной среде можно создавать переохлажденную рабочую подсистему с очень низкой температурой, а по завершении вычислительного процесса считывать результат еще до того, как начнут сказываться потери информации в результате возвращения системы к состоянию теплового равновесия. Последовательная реализация такого подхода приводит к идее оптимального сочетания возможностей квантового и классического компьютеров. Например, можно использовать взаимодействие холодных квантовых пучков легких частиц с массивами более теплых тяжелых частиц. Таким образом, у СП-элементов имеется одновременное сочетание таких возможностей, как сверхвысокое быстродействие, низкое энергопотребление и идеальные характеристики соединений. Однако, несмотря на все преимущества СП-элементов, реальной криогенной ЭВМ пока нет. Разработаны лишь отдельные микросхемы, узлы. Имеются отдельные проекты создания ЭВМ. Рассмотрим наиболее оригинальные из подобного рода разработок. Фирмой IBMна джозефсон |