МОСКВА, 2 ноя — РИА Новости, Ольга Коленцова. Абстрактность мышления присуща только человеку. Математическим подтверждением скачка вверх по эволюционной лестнице стало «изобретение» ноля. Для этого понадобилось осознание такого понятия, как «ничто», а также создание обозначающего его знака.
Сколько лет нолю?
История ноля насчитывает 13 веков. Несмотря на это, многие народы довольно уверенно оперировали и сотнями, и тысячами еще до начала нашей эры. Например, вавилоняне для обозначения пустого места использовали три закорючки или два клина, а греки применяли букву «омикрон». Были и системы счисления, где ноль отсутствовал вовсе. Например, римская — в ней применяли разные буквы, чтобы отличить десятку от сотни. Десять писали как X, 100 — как С, 1000 — как М. Некоторые системы записи чисел (славянская, китайская) предполагали просто пропуск места там, где какого-либо разряда не было.
Революцию в восприятии ноля произвел индийский математик Брахмагупта. Вследствие особенностей религии (концепция небытия и вечности, а также происхождения Вселенной из ничего) индийцы могли воспринимать мир более абстрактно, чем арабы и европейцы. Возможно, ноль был придуман из-за того, что индийцы выполняли расчеты, двигая камни на песке, на котором образовывались ямки. Получалось, что нечто (песок) превращалось в ничто (ямка). В любом случае первым, кто доказал некоторые свойства ноля, стал именно Брахмагупта.
Но тогда эти свойства носили не привычный вид математических выражений, а были сводом письменных законов. Брахмагупта для объяснений использовал понятия торговли — долг и имущество. «Долг минус ноль — это долг», «имущество минус ноль — это имущество», «долг, вычтенный из ноля, — это имущество», «имущество, вычтенное из ноля, — это долг».
Первое письменное упоминание ноля как знакомого нам символа датируется 876 годом. На стене храма Чатурбхуджа в форте Гвалиор (Индия) находится табличка с информацией о выращивании такого количества цветов, чтобы каждый день можно было приносить в местный храм 50 венков. Это самая ранняя запись, где ноль стоит в конце числа и имеет форму эллипса. Также именно в Индии была принята полная система записи цифр, которой сейчас пользуется весь мир. Правда, называется она арабской.
Система записи индийская, цифры арабские
Впрочем, арабские цифры стали популярными в Европе примерно к XVI веку — до этого времени аристократия чаще пользовалась римскими цифрами. Возможно, сказывалось недоверие ко всему, что пришло из мусульманского мира, с которым в христианском велась борьба на протяжении многих столетий. А вот купцы куда быстрее осознали выгоду арабского метода записи.
Определенно, торговля была неплохим двигателем математики. В XIII веке сын купца Леонардо Пизанский (по прозвищу Фибоначчи, под которым он известен нам сейчас) описал девять индийских символов вместе с нолем для европейцев, но этот труд («Книга абака») долгое время широко не использовался. Такое опережающее математическое мировоззрение сформировалось у Леонардо благодаря путешествиям вместе с отцом-торговцем по Египту, Сирии, Византии. Важно, Фибоначчи все же не называл ноль цифрой, а именовал его просто знаком.
Но даже после принятия европейцами арабских цифр ноль долгое время считался символом, а не числом. В XVII веке крупный английский математик, один из предшественников математического анализа Джон Уоллис писал: «Ноль не есть число». При этом ученый ввел понятие бесконечности и отрицательных чисел на примерах координатных осей, то есть консерватором его назвать никак нельзя.
Когда ноль официально стал числом?
Лишь труды Леонарда Эйлера в XVIII веке привели к тому, что ноль заслужил «звание» числа. Ученый изучал и математику, и множество прикладных наук — медицину, химию, астрономию, физику. Эйлер не только пришел к пониманию ноля как бесконечно малого числа и имел смелость открыто это утверждать. Прежде дифференциал рассматривался как приращение «неопределенно малых» чисел.
Но Эйлер подчеркивает, что дифференциал по определению есть ноль, а не другое число, пусть и самое малое. Такой подход при всем авторитете великого математика не нашел сторонников, так как дифференциал, рассматриваемый как ноль, был практически бесполезен для математического анализа. Тем не менее ноль наконец обрел статус полноценного числа — он был отнесен к целым и четным числам. Правда, является он натуральным числом или нет — тут к единому согласию ученые мира еще не пришли.
Трудно представить современную математику без ноля — его понятие кажется привычным и очевидным. Тем не менее понадобились века исследований и тысячи исписанных страниц, чтобы это число заняло свое законное место в науке.