Информация

Информация




4. Перевести силу мысли в движение колес!

За преодоление еще одной «информационной ступени» мы можем быть благодарны гениальным английским математикам Чарльзу Бэббиджу и Аде Байрон-Лавлейс.

Впечатляющим изобретением Чарльза Бэббиджа — правда, физически воплощенным в итоге лишь частично — стала вычислительная («разностная») машина. Качественно она намного превосходила все вычислительные устройства, использовавшиеся до этого. По сути, это был своеобразный механический компьютер.

До этого в вычислениях математикам, торговцам, строителям, мореплавателям помогали вычислительные таблицы: они были известны арабам еще в IX веке, и в течение последующих веков совершенствовались. Правда, в них встречались многочисленные ошибки, что могло привести к крайне неприятным последствиям.

В XVII веке процесс вычислений ускорило изобретение логарифма и создание первых примитивных счетных машин Лейбница и Паскаля — для сложения и умножения.

После разностной машины Бэббидж, уже совместно с Адой Байрон-Лавлейс, задумался над следующим, еще более грандиозным проектом — «аналитической машиной». Их машина должна была не просто рассчитывать результаты, но выполнять операции — «процессы, изменяющие взаимное отношение двух вещей» — и при этом работать не только с числами, но и с другими объектами, вроде тонов гармонической музыки. Из «машины чисел» она должна была стать «машиной информации». Единицами информации для такой машины должны были стать переменные.

В этом проекте Ада Байрон-Лавлейс выполняла труднейшую работу: она программировала машину, не имея самой машины (став, таким образом, вообще первым программистом в мире).

Этот проект оказался не понят современниками — но про него с благодарностью вспомнили потом.



5. Нервная система Земли

Открытие электричества — при том, что его можно посылать по проводам любой длины — превращало в реальность давнюю мечту об эффективной и быстрой коммуникации на расстоянии.

Попыток создать рабочую дистанционную коммуникационную систему было множество: с помощью синхронизированных маятниковых часов, деревянных рам со скользящими заслонками, рычагами, которые могли поворачиваться в несколько позиций, и т. п. Однако общей их проблемой была невысокая достоверность передаваемого сигнала: сети были уязвимы, операторы допускали кучу ошибок на промежуточных этапах, изрядная часть сообщений искажалась или просто терялась.

«Озарение» Морзе — обеспечившее успех телеграфу — состояло в том, что Морзе создал принципиально новую систему знаков. Не внося новые элементы, как делали его предшественники (вроде дополнительных стрелок, пузырьков воздуха в колбе и т. п.), он использовал лишь саму электрическую цепь — ее замыкание и размыкание. Такой аппарат был способен передать до 30 слов в минуту — невиданная скорость по тем временам.

Морзе не сразу пришел к известной нам азбуке. Изначально предлагалось с помощью электромагнитного ключа посылать последовательность «точек» (кратких сигналов) и пауз, обозначающих числа. Будь этот вариант реализован — был бы необходим огромный словарь соответствий, а телеграфисты тратили бы уйму времени на дешифровку. К счастью, от этого вовремя отказались: помогло усовершенствование ключа, созданное Альфредом Вейлем и позволившее ввести третий (помимо точки и паузы) знак — «тире» (то есть длинный сигнал). Исследование частотности букв, встречающихся в английском языке, дало возможность еще более увеличить скорость передачи информации.

Быстро встал вопрос о надежности передаваемых сообщений — и, естественно, о необходимости кодирования. Для этого (а также для увеличения скорости передаваемого сообщения и экономии денег при пересылке) использовались самые разные приемы: от простейших сокращений вроде Shf (stocks have fallen — акции упали) до сложных систем кодирования, требующих больших словарей для расшифровки.

Любопытно, что, решая проблему оптимального криптографического кода, математик и викарий Джон Уилкинс еще в 1641 году создал двоичный код — и подошел к созданию концепции информации в чистом виде.



6. Новые провода, новая логика

Телеграфия, телефония и радио по сути изменили топологию социума, разорвав часть старых связей и добавив множество новых.

Количество телеграфных линий все росло, скоростная дистанционная коммуникация становилась все более востребованной — и появилось ощущение, что мир меняется благодаря электричеству, что телеграф (а затем и телефон) превращают человечество в единый организм.

По-другому стали восприниматься расстояния — «глобус уменьшился».

Появилось понимание разности времени в разных местах.

Погоду стало возможно анализировать как некий целостный (а не только локальный) феномен — и в 1854 году британское правительство учредило Метеорологическое управление.

Изменялся и физический ландшафт — повсюду протянулись провода, и они были значимым элементом пейзажа, несли серьезную смысловую нагрузку. Телеграф стал оказывать свое влияние на журналистику и даже на литературу — появилось понятие «телеграфного стиля».

Невзирая на явную потребность в телефонии, ее роль некоторое время недооценивалась — потому что, в отличие от телеграфа, опиравшегося на письменную, «зафиксированную» речь, телефон использовал речь устную, не оставляя записей. Впрочем, эмоциональный потенциал этого вида связи был распознан быстро.

По мнению Джона Дж. Карти (возглавлявшего Лаборатории Белла), телефон наравне с лифтом изменил даже горизонт Нью-Йорка, сделав возможным и осмысленным строительство небоскребов.

Информационное развитие подталкивало людей к идее компьютера. Вэнивар Буш из Массачусетского технологического института разработал, практически не опираясь на изобретения Бэббиджа, «дифференциальный анализатор» — 100-тонную платформу с шестеренками и вращающимися стержнями, предназначенную для решения дифференциальных уравнений второго порядка. Электричество она использовала лишь для привода и для электромеханических переключателей, оперировала не цифрами, а множествами (была аналоговой, а не цифровой), и точность ее была невелика.

Сотрудник Буша Клод Шеннон заинтересовался электрическими системами контроля платформы — релейными цепями — и увидел, что реле передает, по сути, сообщение: замкнута цепь или разомкнута. То есть для описания всех комбинаций состояний и действий релейных цепей можно использовать лишь символы «0» и «1». Проработав эту концепцию, Шеннон увидел, что вообще любая операция с конечным числом шагов (вроде «если», «или» и т. п.) может быть автоматически выполнена релейными цепями.

Оказалось, что числами можно кодировать само мышление, выражать любую форму знания. Математика получила возможности универсального языка.

Однако «универсальный» — не значит «всемогущий». Так, Алан Тьюринг провел мысленный эксперимент с «машиной идеальных возможностей». По итогам этого эксперимента стало понятно, что машина не может справиться с теми задачами, которые выходят за пределы механических, — то есть с задачами, алгоритм которых (как бы сложен он ни был) в принципе нельзя задать.

В гипотетической машине Тьюринга были три необходимых составных части:

— лента, разделенная на ячейки и могущая двигаться влево или вправо;

— символы, которые записаны по одному на ячейку ленты;

— состояния, в которых может находиться машина (и совершать определенные действия).

Тьюринг программировал свою несуществующую машину. С помощью простых действий конструировались сложные, машина могла использовать часть ленты в качестве временного хранилища информации и т. д. При неограниченности ленты машина могла вычислить все, что вообще можно вычислить. Однако выяснилось, что вычислить можно отнюдь не все.

Любая формальная система оказывалась содержащей неразрешимые утверждения.



7. Теория информации

Параллельно с усложнением и ростом производительности самих вычислительных устройств совершенствовались и способы обработки данных. Этому способствовала Вторая мировая война, когда востребованность шифрования и дешифрования резко возросла.

Больше всего для превращения криптоанализа из искусства в науку сделали Клод Шеннон и Алан Тьюринг.

Первой задачей дешифровщиков было распознать в том, что на первый взгляд походило на «шум» (поток случайных данных), систему. Такому распознаванию способствовал сам язык — крайне устойчивая структура даже после шифровки (в том числе благодаря его избыточности).

Естественный язык является стохастическим процессом — то есть он и не детерминирован полностью (нельзя сказать, что каждое следующее событие будет просчитано), и не случаен (поскольку нельзя сказать, что каждое следующее событие независимо от предыдущего). Структуры языка (и на уровне букв, и на уровне слов) могут быть высчитаны вероятностно.

Шеннон стал первым человеком, кто начал работать с теорией информации — и с информацией, «очищенной от смысла» (точнее — от психологических факторов, сопряженных с ней).

Он также разработал общую схему системы связи:

— источник информации выдает сообщение передатчику;

— передатчик выводит сигнал в канал передачи;

— в канале при передаче сигнал неизбежно получает дополнительный шум;

— полученный сигнал доходит до приемника, который производит операцию, обратную операции передатчика;

— декодированное или реконструированное сообщение доходит до получателя.

При такой работе с информацией Шеннону потребовалась новая единица измерения, и ею стал бит — «количество неопределенности, возникающее при подбрасывании монеты». Шеннон же впервые предположил, что геном — хранилище информации, которую можно измерить в битах.


8. Информационный поворот

Норберт Винер стал первооткрывателем кибернетики, в его исходном представлении — науки, исследующей способы коммуникации и управления, работающие и для человека, и для машины.

Винер (как и Шеннон) рассматривал информацию как меру беспорядка или неопределенности. Информация представляет собой неожиданность (если же последующее сообщение уверенно угадывается — оно избыточно).

Винер полагал, что машины не просто могут думать, а интенсивно развиваются в этом направлении, и боялся, что они обесценят человеческий мозг, как ранее обесценили человеческие мышечные усилия. Он не видел принципиальной разницы между реле и нейронами.

Ее также не видел и нейрофизиолог Уоррен Маккаллох. Он организовал серию конференций с тогдашними светилами науки из разных ее областей — в основную группу входили антрополог Маргарет Мид, этолог, психолог и этнолог Грегори Бейтсон, психологи Лоуренс Франк и Генрих Клювер, математики Норберт Винер и Джон фон Нейман.

На этих конференциях Шеннон продемонстрировал «мышь Шеннона» — робота, находящего выход из лабиринтов с помощью метода проб и ошибок. Робот обладал «памятью» — ее формировали 75 соединенных друг с другом реле — позволявшей ему безошибочно проходить уже известные участки. Любопытно, что некоторые сочетания старой памяти и нового лабиринта формировали «замкнутый круг решения» (похожий на человеческий невроз) — тогда «мышь» начинала безостановочно проходить один и тот же ошибочный круг действий. Шеннон был вынужден добавить «противоневрозную цепь» — команду выхода из цикла, если он повторялся более шести раз.

Общий объем памяти «мыши» составлял 75 бит, и она «забывала» старые решения при изменении обстоятельств. Несмотря на мизерный объем памяти, это был робот, убедительно показывающий сходство процессов в электронном устройстве и человеческом мозге.

Психология к середине ХХ века пришла к застою — было не вполне понятно, что она вообще изучает (если вынести за скобки физиологию — стимулы и нервные реакции — и непосредственно поведение). Мышь Шеннона же стала моделью (пусть грубой) не только мозга, но и поведения — и ее можно было изучать, отойдя от бихевиористских принципов «черного ящика». Стало возможно прогнозировать не только реакцию живых существ, но и их представление о мире. Проблемы воспроизведения сообщений, шума и избыточности стали насущными не только в сугубо технических сферах. Наблюдателя можно было расценивать, например, как канал связи — и благодаря этому предположению подойти к механизмам распознавания и запоминания.

Развитие компьютеров сделало возможным создание «искусственного шахматиста» — и тем самым в некоторой степени еще значительнее уменьшило разницу между человеческим мышлением и компьютерной обработкой данных.



9. Энтропия и ее демоны

Изначально слово «энтропия» обозначало недоступность энергии в системе из-за отсутствия разницы температур. С введением этого термина начала термодинамики приобрели следующий вид:

— Первое начало: количество энергии во Вселенной постоянно;

— Второе начало: энтропия Вселенной всегда возрастает.

Стало понятно, что Вселенная «изнашивается», и в будущем неизбежна ее смерть из-за исчерпания потенциальной энергии.

Джеймс Клерк Максвелл первым стал изучать беспорядок как существенное свойство энтропии.

Движение отдельных молекул одинаково независимо от того, вперед или назад движется время, но если рассматривать пространство, содержащее эти молекулы, как единое целое, станет очевидно: молекулярные процессы движутся в одном направлении. Происходит это вследствие работы законов вероятности: статистически все стремится к максимальной энтропии.

У упорядоченных состояний низкая вероятность и низкая энтропия.

Для иллюстрации второго начала термодинамики Максвелл предложил мысленный эксперимент с «демоном Максвелла» — микросуществом, находящимся в единственной маленькой дырочке в перегородке, разделяющей сосуд на две части. Демон способен сортировать молекулы: медленные — в одну часть сосуда, быстрые — в другую; таким образом, одна часть сосуда становится горячее, а другая холоднее. Демон пренебрегает вероятностями — но чтобы совершить эту работу, ему нужна информация и энергия (а также память).

Позже Лео Силард доказал, что никакой вариант подобного демона работать не будет. И дело тут, в том числе, в «небесплатности» информации. Каждый раз выбор между двумя частицами стоит 1 бит информации — а память принципиально не бесконечна.

Мы, как и все живые организмы, противостоим энтропии — создаем структуры и схемы, нарушаем тепловое равновесие, умудряемся оставаться не вполне стабильными.

«Когда мы называем кусок материи живым? Когда он продолжает делать что-то — двигаться, обмениваться веществами с окружающей средой и т. п. — в течение гораздо более длительного периода времени, чем мы бы ожидали от неодушевленного куска материи в схожих обстоятельствах... Организму удается освободить себя от всей энтропии, которую он не может не производить, пока жив».

Эрвин Шредингер

И к живым существам, и к информации невозможно применить обычные способы подсчета энтропии. Люди сами преобразуют отрицательную энтропию в информацию.



10. Собственный код жизни

Слово «ген» было придумано датским ботаником Вильгельмом Йохансоном в 1910 году (ранее такие гипотетические частицы назывались «пластикулами»).

Эрвин Шредингер выдвинул теорию, согласно которой гены для компактной записи большого количества информации должны использовать код наподобие морзянки. Вскоре радиолог Генри Кастлер предположил, что единицами информации там работают аминокислоты, а его коллега Сидней Данкофф — что хромосомная нить есть линейная лента с закодированной информацией. Далее Кастлер пришел к идее о «каталоге генов» — геноме. А в 1953 году Джеймс Уотсон и Фрэнсис Крик и в самом деле обнаружили ген — в нуклеиновой кислоте. Видеть эти молекулы они еще не могли, но их следы обнаруживались благодаря дифракции рентгеновских лучей. Каждый нуклеотид содержал одно из четырех базовых оснований — они и были единицами кода, позволяющими создать множество комбинаций.

К решению проблемы «кода жизни» подключились самые разные ученые: физики Георгий Гамов и Ричард Фейнман, создатель водородной бомбы Эдвард Теллер, математик Николас Метрополис и другие. Проблема состояла не только в хранении, но и в передаче наследственной информации, ведь:

— ДНК сохраняет информацию (притом число нуклеотидов превышает 1 миллиард, и вся информация должна быть сохранена максимально точно);

— ДНК посылает информацию вовне, чтобы ее можно было использовать при создании нового организма; при этом данные одномерной нити должны расположиться в трех измерениях.

То есть ДНК не просто воспроизводит себя, но и запускает принципиально новое производство.

Код долго не могли расшифровать (и даже подступиться к расшифровке) из-за — как выяснилось позже — изрядной избыточности: она дает устойчивость к ошибкам. Тем не менее ошибки регулярно случаются — такие «опечатки» в ДНК приводят к мутациям.

«Записи» в молекулах-репликаторах не должны быть совершенно безошибочными: «опечатки» нужны для эволюции.

Репликаторы, судя по всему, появились не только до возникновения ДНК, но даже до возникновения белков (то ли в отложениях глины, то ли в «первичном бульоне»). Судьба этих макромолекул оказалась различна, и часть из них научилась, используя энергию фотонов, катализировать формирование более крупных и информационно богатых молекул. В дальнейшем вокруг начала строиться и белковая оболочка.

Зоолог Ричард Докинз предположил, что единица естественного отбора — ген, а не организм. Не мы пользуемся генами — мы лишь машины для выживания, транспорта и сохранения генов. Наше тело представляет собой «колонию» генов; причем не только человеческих — мы являемся еще и носителями экосистемы микроскопических организмов, в первую очередь бактерий.

Гены не умеют предвидеть, у них нет намерений или знаний — но они могут обеспечить свое выживание, совершенствуя организмы сообразно условиям окружающей среды.

Влияние отдельного гена зависит от его взаимодействия с «колонией», от влияния окружающей среды и от случайности. Многие качества зависят не от одного гена, а от их набора.



11. В мемофонд

Идеи обладают некоторыми свойствами организмов — они могут развиваться (и развитие это идет согласно законам естественного отбора), они склонны сохранять структуру и размножаться, они могут сливаться, рекомбинировать или сегрегировать отдельные свои компоненты. Они обладают заразностью — причем для некоторых из них (вроде религиозных идей) этот параметр существенно выше, чем для других. Они порождают подобных себе, помогают друг другу развиваться, взаимодействуют друг с другом и с внешним окружением.

Докинз полагает, что в случае с идеями мы также имеем дело с появлением репликаторов; роль «первичного бульона» в этом случае взяла на себя культура. Вектором передачи служит язык, пищей — мозг. Докинз же предложил и имя для этого нового первичного репликатора — мем.

К мемам относятся идеи, мелодии, крылатые фразы, легенды, мода и т. п.

«Мемы распространяются... переходя из мозга в мозг с помощью процесса, который в широком смысле слова можно назвать имитацией. Они конкурируют друг с другом за ограниченные ресурсы — время мозга или ширину канала. Но самое главное — они конкурируют за внимание».

Ричард Докинз

В древности существование мемов было недолгим, с изобретением и развитием письменности они начали становиться все долговечнее и заразнее. Мемы копируются людьми — и мемы копируют сами себя.

Мемы могут влиять на окружающий мир, порой достаточно мощно (как, например, религиозные мемы), изменяя также условия, необходимые для своего выживания.

Технически мемы можно рассматривать как паразитов на человеческом мозге — механизмы распространения их именно таковы. Другой правомерный вариант — рассматривать их как вирусы (не зря появились термины вроде «вирусный текст»).

Определенные мемы существуют даже среди животных — так, шимпанзе и гориллы способны перенимать навыки друг друга, имитируя процессы, птицы учатся друг у друга песням.



12. Смысл случайности

Не может быть случайностью то, что известно заранее, что определено причиной или организовано в соответствии с планом. В любом процессе случайность представляет собой либо «шум», либо же она порождена глубинной динамикой процесса.

Интуиция человека не работает ни для распознавания случайности, ни для предсказания ее. Мы неизбежно склоняемся к упорядоченности.

Закономерность и порядок выражают вычислимость, и измерить ее можно, исходя из размера алгоритма; исходя из него же, мы можем измерить и количество информации.

Математик Андрей Колмогоров ввел понятие «сложность объекта» — чем проще объект, тем меньше он несет в себе информации. Максимальной сложности достигает объект, чей алгоритм требует такой же длины в битах, какую содержит и сам объект.

Динамическая система производит информацию, и чем более она непредсказуема — тем больше информации она производит. Однако хаотичный поток может скрывать в себе простой алгоритм.

Клод Шеннон первым продемонстрировал возможности сжатия при наличии неслучайного в сообщении. Из-за естественной визуальной избыточности сжимаемы фотографии и еще более сжимаемо видео, из-за языковой — сжимаемы текстовые сообщения. Нельзя сжать только полностью случайную последовательность.

Для обратной расшифровки важно наличие общего знания у отправителя и адресата. Избавиться от неопределенности помогает заданный алгоритм.

Сами законы науки представляют собой, по сути, сжатие данных.



13. После потопа

Чарльз Бэббидж предполагал, что атмосфера, помимо всего прочего, — гигантская библиотека всех звуков, которые когда-либо прозвучали. Его в этом поддерживал Эдгар Аллан По, считавший, что слово — как импульс, сообщаемый воздуху, — распространяется бесконечно и в итоге влияет на каждую частицу материи. С изобретением Луи Дагером дагерротипии возникла идея и о вечном хранении всех изображений.

Алан Тьюринг уточнил: Вселенную (как и вычислительную машину) лучше рассматривать как набор состояний, каждое из которых в некий момент предопределяет ее состояние в последующий момент. Таким образом, будущее предсказуемо, а Вселенная сама рассчитывает свою судьбу. Однако эта система далека от совершенства из-за того, что мелкие факторы с течением времени ведут к значительным последствиям.

Самой гигантской библиотекой из практически доступных нам стала «Википедия». «Вики» как идея — вопреки первоначальным намерениям ее создателя, Джимми Уэлса — создала себя сама. Ее неофициальным лозунгом стало: «Вики» сделана не из бумаги» — а биты бесплатны, так что нет ограничений ни на длину, ни на количество статей.

«Википедия» выдает зашедшему на нее версию истины, существующую на данный момент. Как и воспринимаемая нами истина, «Вики» меняется все время.

Все, связанное с информацией, растет экспоненциально. Это верно и для меры информации (бит — байт — килобайт — мегабайт — гигабайт — терабайт — петабайт — экзабайт — зетабайт — йотабайт...).

Информационная жизнь человечества все более — от фотоархивов до денег — переносится в «облако».



14. Новости каждый день

В начале 1960-х годов люди начали беспокоиться, что новые технологии принесут не только добро; они приведут к тому, что люди станут меньше знать, будут больше забывать (передавая эту функцию устройствам) и ухудшится человеческая коммуникация.

Элизабет Эйзенстайн придерживалась другого мнения: самая большая проблема современности — это информационная перегрузка.

Нельзя сказать, что это состояние до того было незнакомо человечеству: на это жаловался еще в 1621 году Роберт Бертон (собравший на тот момент одну из самых больших библиотек в мире).

Однако в наше время такое состояние стало проблемой практически для всех. Появились термины «информационная тревожность» и «информационная усталость». Данные оказываются оторваны от знания, а знание — от мудрости.

Если ранее забывание было потерей, неудачей, то теперь оно стало насущно необходимым и требующим отдельных усилий.

С валом информации надо как-то справляться. Стратегии сводятся к следующему:

— использование фильтров;

— использование целевого поиска.

Когда информация дешевеет — дорожает внимание.



Заключение

С древнейших времен люди работали с информацией: когда создавали легенды и исторические хроники, когда пели колыбельные и любовные песни, когда передавали известия о приближении врагов или о выигранном сражении, когда учили детей и распоряжались, как обойтись с имуществом после смерти.

Однако по мере того, как усложнялся мир, требования все возрастали. Стало необходимо, чтобы приобретенные знания о мире были зафиксированы — появилась письменность. Раз информации становится все больше, ее надо структурировать — и были созданы словари и алфавитная каталогизация. Коммуникация на расстоянии должна быть быстрой, не искажаемой и надежно защищенной от посторонних глаз и ушей — и вот к нашим услугам телефон, интернет и сложнейшие техники шифрования...

Мы познаем самих себя — от генных структур до глубин психики. Мы познаем Вселенную. Информации вокруг все больше, прогресс движется все быстрее. Это нередко озадачивает, утомляет, а порой может и пугать. Но ведь мы и сами — во многом порождение информации. Мы приспособимся!


Report Page