Журнал удивительных идей


Совместный проект учителей и учеников 192 школы



Regency TR-1

Революционное устройство Regency TR-1 было анонсировано 18 октября 1954 года в США. Пятьдесят лет спустя ему вменяют в вину рок-н-ролл, гибель американской индустрии потребительской электроники, неуклонный подъем IBM и ужасающее состояние современных нравов. Неплохой счет для транзисторного радиоприемника.

С тех пор многое изменилось. В TR-1 было всего четыре транзистора, и стоил он $50; на прошлой неделе я купил 256-Мбайт карту памяти SD - кстати, тоже для радио - примерно за ту же цену. В ней два миллиарда транзисторов, что в четыре тысячи раз больше, чем было использовано за весь период выпуска Regency. Коэффициент девальвации получается такой, что каждый транзистор подешевел примерно в четыре миллиарда раз. Мы переживаем индустриальную революцию невиданных темпов и размеров - и вся она примчалась на гребне мощного транзисторного цунами.

Куда она приведет? Давайте перенесемся в 2054 год. Линейная интерполяция обещает по той же цене, эквивалентной стоимости TR-1, карту памяти емкостью два эксабайта (один эксабайт равен 10 в 24-ой степени байт). К тому времени наверняка будет создан искусственный интеллект, так как с такими числами просто больше нечего делать, - у нашего гипотетического чипа памяти будет столько же транзисторов, сколько синапсов (межнейронных контактов. - Ред.) примерно у десяти миллиардов человек. Практически это всепланетарный разум.

Полный текст статьи читайте на ZDnet.ru

64-кратный соблазн

или что такое 64-битный процессор

Начнем с самого начала. Архитектура современного компьютера - того, сидя перед которым я набираю этот текст, например, - организована в соответствии с так называемыми принципами фон Неймана, сформулированными еще в 1945 году. В частности, этими принципами определено, что структурно вычислительная машина состоит из трех базовых блоков: памяти, процессора и устройства ввода-вывода информации. Последний из указанных блоков обеспечивает взаимодействие компьютера с внешним миром, второй предназначен для хранения данных, над которыми производятся некие операции, и результатов этих операций, а третий - процессор - эти операции как раз и производит. Замечательно. Но причем тут какие-то разряды?

Компьютеры, с которыми мы имеем дело в окружающей действительности, построены на двоичной логике вычислений. Это значит, что они оперируют с единицами и нулями - их процессоры умеют, вообще говоря, производить всего лишь три действия: складывать ноль с нулем, получая ноль; складывать единичку с нулем, получая единичку; и складывать единичку с единичкой, получая ноль в текущем разряде и перенося единичку в следующий. Это, собственно, и есть двоичное сложение. Все остальные арифметические операции и, тем более, все гораздо более сложные функции (вроде аппаратно реализованных тригонометрических вычислителей) сводятся именно к процедуре двоичного сложения со сдвигом. Вдаваться в совсем уж базовые схемы организации бинарных вычислений мы не будем - для понимания сути сейчас важно, что двоичные числа обрабатываются в процессоре поразрядно.

Что значит "обрабатываются"? Одним из основных показателей производительности системы является тактовая частота ее процессора, то есть количество элементарных операций, которые "камень" способен произвести  в секунду с поступающими в него числами. Элементарные операции - это как раз простейшее двоичное сложение со сдвигом (либо логическое сравнение булевых операндов). А что такое "поразрядно"? Дело в том, что для записи числа в двоичном виде может потребоваться от одного разряда (если это 0 или 1) до двадцати и более - скажем, число 11 111 111 в двоичной форме есть не что иное, как 255 в десятичной. И если придется прибавить к этому числу единичку, то результат - 256 - потребует для записи как минимум девять разрядов (десять, если один в обязательном порядке отвести под знак). Но в таком случае процессор должен иметь возможность эту операцию осуществить! Что же, сделать его, с запасом, двадцатиразрядным?

А если придется складывать по-настоящему большие величины? Или приниматься за операции над числами с плавающей точкой, которые представляются обыкновенно 32- либо 64-разрядными двоичными "словами", в строго определенных полях содержащими значения знака, мантиссы и порядка каждого числа? Понятно, что чем больше двоичных разрядов может за один такт обработать процессор, тем скорее будут производиться вычисления. Но понятно также, что увеличение разрядности влечет за собой усложнение и потому удорожание конструкции устройства: шина данных, по которой операнды передаются на собственно вычислительные каскады процессора, содержит ровно столько проводников, сколько разрядов одновременно может процессор обработать (вообще-то, это не так. - Ред.). Именно разрядность шины данных и имеют в виду, когда архитектуру процессора называют 32- , 64- или сколько-там-еще-битной.

Помимо шины данных, по которой процессор обменивается данными с оперативной памятью, архитектура компьютера содержит еще два важнейших информационных тракта - адресную и командную шины. Дело в том, что у ячеек оперативной памяти есть, разумеется, адреса, по которым процессор обращается к ним за их содержимым. Адресуется, вообще говоря, вся последовательность байтов оперативной памяти (последовательностью целых неотрицательных чисел, начиная с 0). И вот адрес ячейки, с которой процессор должен произвести обмен данными, выставляется именно на адресной шине. Ее разрядность, очевидно, является показателем того, насколько емкой в принципе может быть память (если n - разрядность адресной шины, то 2 в степени n - максимально возможная емкость оперативной памяти в байтах).

По материалам "ПЛ" и других компьютерных журналов
Николай Махонин

М
а
т
е
м
а
т
и
к
а
Ф
и
з
и
к
а
Х
и
м
и
я
Б
и
о
л
о
г
и
я
И
н
ф
о
р
м
а
т
и
к
а